周鸿祎谈大模型出错:可能会在某些时候口出乱言,建议用户宽容一点

2024-09-01 5:01:03 欧洲杯直播 无敌椰子

专题:2024亚布力企业家第二十届夏季年会

周鸿祎谈大模型出错:可能会在某些时候口出乱言,建议用户宽容一点

  新浪科技讯 8月31日下午消息,2024亚布力企业家第二十届夏季年会在广州举行。论坛期间,在东方甄选直播间,新东方教育科技集团董事长俞敏洪与多位企业家对话。360集团创始人、董事长周鸿祎在直播间谈到国内人工智能发展面临的主要挑战。

  周鸿祎表示,有一个挑战是对错误,对创新的宽容、理解和和包容。他表示,人工智能一定会出错,但不知道它在什么情况下会莫名其妙的出错。

  “所以这里面有两种可能,一种是大模型自身会产生幻觉,”他认为,幻觉是大模型真正有智力的一种体现,这是它先天决定的。

  周鸿祎表示,也研究了对付幻觉的方法,比如说用知识对齐,也就是当大模型产生内容之后,去找内容来做对标,但这里面又会有一个陷阱,就是曾几何时我们都认为网上的内容都是对的,只要是印成印刷体的内容都是对的,所以用搜索引擎来做对齐,但现在发现网上也有很多内容被污染了或者被“投毒”了。

  “比如,如果网上贴了很多关于俞老师的负面,完全是无中生有,但这个帖子又没被删掉,就会被当成事实,进入事实库之后,可能大模型就开始乱说俞老师的坏话。”他还谈到,Google最近也犯了这样的错误,有人在Google里问怎么吃石头,Google就认真回答说吃石头要磨细了吃,咽不下的时候还用水来送服,石头有很丰富的营养,就成为一个丑闻。原来谷歌是从一个社区论坛抓取的内容,那里有人恶搞,模拟科普文章,写了如何吃石头,然后就被谷歌抓取了,谷歌就认为这个文章都是对的。

  周鸿祎指出,以后在网上还需要解决的问题是用大模型来判断内容到底对不对,但前提是要有一些对的内容,那就需要人工筛选一些内容。

  他认为,未来随着大模型用的越来越多之后,一定会在回答某些问题的时候可能口出乱言,碰到这种情况,建议用户还是宽容一点,发现漏洞可以主动通知对方去修正,而不是大肆渲染,变成巨大的事件。

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

搜索
最近发表
标签列表