微软将把必应聊天回复限制在5条以内,以防人工智能越界
,微软表示,在必应聊天机器人多次失控几天后,公司将对其人工智能聊天机器人实施一些对话限制。
在发现必应存在侮辱用户、欺骗用户,甚至操纵用户情感等行为之后,微软决定将其聊天回复限制在每天 50 个问题、每个问题 5 条回复以内。
“我们的数据表明,绝大多数人都能在 5 次回复内找到他们想要的答案,只有大约 1% 的聊天对话会产生 50 条以上的消息”。
据介绍,如果用户触发五条回答的限制,Bing 将提示他们开始一个新主题以避免长时间的聊天。
本周早些时候,微软警告说,这些包含 15 个或更多问题的长时间聊天会话可能会使必应“变得重复或被提示 / 激怒给出不一定有帮助或不符合我们设计的响应。”微软认为在五个回合后结束对话意味着“模型不会混淆”。
微软目前仍在努力改善必应的设计,但目前还不清楚这些限制将持续多久。微软只表示:“随着我们不断获得反馈,我们将探索扩大聊天会话的上限。”
IT之家各位或多或少听过,科技圈上周掀起了一次关于聊天机器人的小高潮,微软和谷歌都试图通过展示早起版本的 AI 搜索来先发制人。微软更是宣布,该公司的 AI 搜索仅用 48 小时就吸引 100 多万人注册。
这种技术可以针对用户的问题直接给出答案,看起来就像是真人创作的一样。微软 CEO 萨提亚?纳德拉表示,该技术“或许会掀起知识工作的工业革命”。但对于担心准确性的人来说,人工智能还有许多不足之处。
在微软进行演示时,这项嵌入在必应搜索中的类 ChatGPT 技术分析了 Gap 和 Lululemon 的财报。但业内人士将其给出的答案与财报原文对比后却发现,这款聊天机器人遗漏了一些数据,甚至会杜撰一些内容。
“必应 AI 在演示过程中给出了一些完全错误的答案,但却没人注意到。”独立搜索引擎研究员德米特里?布里尔顿写道,“相反,大家都对必应的宣传欢欣鼓舞。”
布里尔顿发现,除了财务数据上的错误外,微软在演示中针对吸尘器规格和墨西哥旅行计划的回答可能存在事实性错误。布里尔顿最初并不是为了给微软“挑刺”,他只是在细致对比微软和谷歌的答案时意外发现了这些问题。
人工智能专家称这一现象为“幻觉”,也就是说,基于大语言模型生成的工具有杜撰内容的倾向。上周,谷歌推出了一款与之竞争的人工智能工具,演示过程中同样存在事实性错误 —— 但当时的错误很快就被人发现。
拓展阅读:
《ChatGPT 版微软必应内置聊天机器人向用户表白,并让其跟妻子离婚》
《微软:与 AI 增强版必应长时间聊天会导致“翻车”》
《微软上调 Bing Search API 定价,费用最高增长 1000%》
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。
- vivo将于3月1日在印度推出V27系列手机,搭载联发科天玑7200/8
- 苹果为StudioDisplay发布16.4固件更新,大小为641.4M
- 三星OneUI5.1增加与GalaxyBook笔记本电脑更多集成功能:图
- 2022年我国电竞产业收入五年来首次下降,腾讯称将配合主管部门推出国家级
- Netflix宣布推出动画剧集《PLUTO冥王》:根据浦泽直树和长嶝高士
- 苹果Safari浏览器16.4Beta添加支持AV1编解码器API,预计
- GOG游戏商城喜加一,免费领取喜剧策略游戏《Biing!》
- 海盗船推出首款48GB单条DDR5非二进制内存
- 质子是否会衰变
- 存储巨头美光宣布裁员比例扩至15%:约7200人将被裁掉!--