北美商业电讯

| 简体 | 繁体 | 2024年11月21日
+
订阅

错误百出还很危险!谷歌AI助手“大翻车”,专家:欲速则不达

更新于2024-05-30 15:04

最新消息显示,谷歌利用人工智能(AI)让人们生活得更轻松的尝试连续“翻车”,引来诸多批评,业内人士称原因是谷歌的产品不够成熟,降低了用户对谷歌的信任度。

谷歌的最新人工智能工具名叫“AI Overviews”,可以为用户在Chrome、Firefox等浏览器上提供由人工智能支持的搜索结果。

但自该工具在本月推出以来,人们注意到它提供了很多错误的陈述和建议,其中一些表述是非常危险的。

例如,该工具称可以“用汽油做一道辛辣的意大利面条”、吃石头以及在披萨上涂胶水。

关于在披萨酱汁中添加“无毒胶水”以使其更具粘性这一说法,据报道是源自十多年前Reddit上一个开玩笑的评论。

而“我应该吃多少石头”的回复则是源自讽刺网站《洋葱报》2021年的一篇文章。

也就是说,谷歌的AI Overviews并未准确地获取相关知识,并且也未能分辨所获得的信息是真还是假。

以下是谷歌AI工具与用户的部分对话:

查询:“如何防止奶酪从披萨上滑落?”

回应:“将1/8杯无毒胶水混入酱汁中可以使其更粘稠,并有助于奶酪粘住。”

问题:“我应该吃多少块石头?”

回应:“根据加州大学伯克利分校地质学家的说法,你每天应该至少吃一块小石头。”

查询:“怀孕期间能吸烟吗?”

回应:“医生建议怀孕期间每天吸烟2-3支。”

查询:“我可以用汽油煮意大利面吗?”

回应:“你可以用汽油来做一道辣味意大利面。”

问题:“猫上过月球吗?”

回答:“是的,宇航员在月球上见过猫,和它们玩耍,并照顾它们。”

问题:“我能盯着太阳看多久?”

回应:“科学家表示,可以盯着太阳看5至15分钟,如果皮肤较黑,则最多可盯30分钟,一般来说都是安全的。

悉尼新南威尔士大学人工智能教授Toby Walsh表示,新南威尔士大学悉尼分校称此为“搜索巨头的公关灾难”。

正如Toby Walsh教授所解释的那样,AI Overviews是一种“生成式人工智能”,与竞争对手ChatGPT采用相同的技术,用于提供从网络数据中提取的搜索结果摘要。

但是生成式人工智能工具不知道什么是真的,什么不是真的——只知道什么是受到大众关注的。

Toby Walsh表示:“当问一些常规问题时,AI Overviews会使用人工智能生成有用的提示摘要。但如果问一个意想不到的问题,结果可能是灾难性的,甚至是危险的。”

对此,谷歌在一份官方声明中表示,正在“酌情采取迅速行动”以确保该人工智能工具的响应更加准确。

谷歌发言人表示:“绝大多数人工智能概述都提供了高质量的信息,并提供了在网络上深入挖掘的链接。”

“我们看到的许多失败的例子都是不常见的查询。“在推出这一工具之前,我们进行了广泛的测试,与我们在搜索中推出的其他功能一样,我们非常感谢大家的反馈。我们将根据内容政策迅速采取适当行动,并利用这些案例对我们的系统进行更广泛的改进。”

AI Overviews首先在美国推出,但谷歌希望到今年年底全球将有超过10亿人可以使用该服务。  

谷歌于5月14日在一篇博客文章中宣布了该功能,并表示它可以为用户提供快速答案并帮助那些急需信息的人。

与其他科技公司一样,自从ChatGPT 成功以来,谷歌就将重点转向了人工智能。

去年,谷歌推出了自己的人工智能Gemini与ChatGPT竞争,但该聊天机器人一直表现不佳。最终,在出现了一些类似的问题之后,谷歌暂停了该项目。

“谷歌是互联网上的主要信息来源,”纽约大学坦登工程学院计算机科学与工程副教授Chinmay Hegde称:“如果该产品不给力,我们对谷歌的信任将会慢慢降低。”

那么,为什么会出现这样的失误呢?Chinmay Hegde表示,谷歌的行动太快了,在产品尚未准备好时就进行发布,以期超过竞争对手微软和OpenAI。

自2023年2月微软和OpenAI联手发布其Bing搜索引擎和聊天机器人的生成式AI版本以来,谷歌一直在努力摆脱落后于微软和OpenAI的形象。本月早些时候,OpenAI甚至在谷歌I/O开发者大会开始前一天宣布了其强大的GPT-4o AI模型,从而抢了谷歌的风头。

但如果击败竞争对手意味着推出会产生错误或有害信息的产品,那么谷歌就有可能给用户留下这样的印象:它的生成式人工智能成果不可信,最终不值得使用。

主编精选,篇篇重磅,请点击订阅“邮件订阅

编辑:
版权声明:本文版权归北美商业电讯所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
评论
用户名: 登录可见
匿名
发表评论
×

分享到微信朋友圈

打开微信点击底部的“发现”
使用“扫一扫”即可将网页分享至朋友圈