欧洲新闻网 | 中国 | 国际 | 社会 | 娱乐 | 时尚 | 民生 | 科技 | 旅游 | 体育 | 财经 | 健康 | 文化 | 艺术 | 人物 | 家居 | 公益 | 视频 | 华人 | 有福之州
投稿邮箱:uscntv@outlook.com
主页 > 财经 > 企业 > 正文

微软副总裁Vik Singh:AI聊天机器人需“学会求助”而非“制造幻觉”

2024-09-02 12:40 IT之家  -  384042

IT之家 9 月 2 日消息,当地时间 9 月 1 日,据法新社报道,微软公司副总裁 Vik Singh 在接受采访时说,“坦率地说,如今(生成式 AI)真正缺少的能力,即是当模型无法确定(自身答案是否准确)时,能够主动说‘嘿,我不确定,我需要帮助’。”

自去年以来,微软、谷歌及其竞争对手一直在迅速部署如 ChatGPT、Gemini 等生成式 AI 应用,这些应用可以按需生成各种内容,并给用户一种“无所不知”的错觉。尽管生成式 AI 的开发取得了进展,它们仍然会出现“幻觉”或编造答案。

图源 Pexels

图源 Pexels

Vik Singh 坚持认为,“真正聪明的人”正在努力找到方法,让聊天机器人在不知道正确答案时“承认并寻求帮助”。

与此同时,云端软件巨头 Salesforce 的首席执行官 Marc Benioff 也在上周表示,他看到许多客户对微软 Copilot 的误导性表现越来越感到沮丧。

IT之家获悉,近年来,人工智能蓬勃发展,聊天机器人等应用逐渐普及,人们可以通过简单的指令从这些聊天机器人(例如 ChatGPT)获取信息。然而,这些聊天机器人仍然容易出现“幻觉”问题,即提供错误的答案,有时甚至是危险的信息。造成“幻觉”的原因之一,是训练数据不准确、泛化能力不足以及数据采集过程中的副作用。

  声明:文章大多转自网络,旨在更广泛的传播。本文仅代表作者个人观点,与美国新闻网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如有稿件内容、版权等问题请联系删除。联系邮箱:uscntv@outlook.com。

上一篇:英特尔计划终止汽车租赁计划 预计将裁员上千人
下一篇:全球大型企业“减员风暴”愈演愈烈,科技企业是重灾区

热点新闻

重要通知

服务之窗

关于我们| 联系我们| 广告服务| 供稿服务| 法律声明| 招聘信息| 网站地图

本网站所刊载信息,不代表美国新闻网的立场和观点。 刊用本网站稿件,务经书面授权。

美国新闻网由欧洲华文电视台美国站主办 www.uscntv.com

[部分稿件来源于网络,如有侵权请及时联系我们] [邮箱:uscntv@outlook.com]