• 首页 > 科技正文
  • 审稿人或难识别AI撰写的论文摘要

  • 2023-01-30 10:06:44作者: 张梦然 来源: 中国网科技
  •   据近日发表在预印本服务器bioRxiv上的一项研究,人工智能(AI)聊天机器人ChatGPT已可写出令人信服的假研究论文摘要,甚至连审稿科学家也无法发现。

      聊天机器人ChatGPT会根据用户提示创建逼真文本,它通过消化大量现有的人类生成文本来学习执行任务。美国的软件公司OpenAI于去年11月发布了该工具,并供用户免费使用。

      自发布以来,研究人员一直在努力解决相关伦理道德问题,因为它大部分输出可能很难与人类撰写的文本区分开来。近日美国西北大学的一个研究小组使用ChatGPT生成人工研究论文摘要,以测试科学家是否可辨别它们。

      研究人员要求机器人基于发表在《美国医学会杂志》《新英格兰医学杂志》《英国医学杂志》《柳叶刀》和《自然·医学》上的50篇研究编写摘要。然后,他们通过抄袭检测器和AI输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员找出编造的摘要。

      结果,ChatGPT生成的摘要通过了抄袭检查器,原创性得分中位数为100%,表明没有检测到抄袭。人工智能输出检测器发现了66%的生成摘要,但人工审稿人只正确识别了68%的生成摘要和86%的真实摘要,他们错误地将生成摘要中的32%识别为真实,将14%的真实摘要识别为编造。

      研究人员称,ChatGPT写出了能骗过人类的科学摘要,如果科学家无法确定研究是否属实,或会产生“可怕的后果”。

      研究人员表示,在虚假信息会危及人们生命安全的医学等领域,期刊需要采取更严格的方法来验证信息的准确性。而这些问题的解决方案,不应集中在机器人本身,“而是导致这种行为的不正当激励措施,例如通过论文数量进行招聘和晋升审查,而不考虑其质量或影响”。

    (责任编辑:毕安吉)

    猜你喜欢:

  • 高端制造成引资高地 硬科技成关注焦点
  • 智能算力规模已超通用算力
  • 国产大飞机C919累计获得订单超千架
  • “三无”电子烟化身“可乐罐” 吸引未成年人“入
  • 智能时代看电视反而更麻烦了?
  • 平台定价应规则透明、逻辑一致
  • 技术突破、国产化加速 A股芯片板块有望迎来估值修
  • 工业信息安全产业保持高景气度
  • 来深圳光明科学城论坛,听大咖分享科技信息开辟产业
  • OPPO Reno10系列开售,销量创新高,2499元起长焦人像
  • 柔烘精洗,小天鹅本色系列洗烘套装让冬季衣物处理不
  • 云计算守护苏宁818方案揭秘:云资源调度、安全云双
  • F5发布全新AI驱动的应用和API安全功能 全方位护航
  • 大气污染防控形势严峻,TCL卧室新风空调多重防护保
  • 羊毛柔烘获世界制造业大会科技创新奖,小天鹅民族品
  • TCL新风空调618增氧减压挑战赛火热进行中,参与人数
  • 推荐阅读
    频道排行
    中国财经消费网   |    合作:gkjnet@qq.com
    Copyright © 2019-2023 CJ18.COM.CN All Rights Reserved 中国财经消费网 版权所有