天天新资讯:微软或将把必应聊天的回复限制在5条以内,以防止人工智能越界

2023-02-18 08:34:37来源:金融界


【资料图】

2月18日消息,微软表示,在必应聊天机器人多次失控几天后,公司将对其人工智能实施一些对话限制。在发现必应存在侮辱用户、欺骗用户、操纵用户情感等行为之后,与其聊天将被限制在每天50个问题,每个问题5条回复。

消息面上,微软股价周五跌1.56%,收于258.06美元。

自从微软上周展示了其新的人工智能驱动搜索引擎早期版本——CHATGPT版Bing以来,已经有超过一百万人注册测试。在旧金山初创公司OpenAI的技术帮助下,ChatGPT版Bing成为一款会聊天的搜索引擎。

一周下来,网友发现,新版Bing比ChatGPT表现得更像一个人,但是,这个人喜怒无常甚至有些精神错乱。根据网友在社交媒体晒出的聊天记录,Bing不仅常常犯错,而且如果聊得太久或被质疑时,它会突然对聊天对象发脾气、撒谎,对其进行人身攻击,甚至是PUA(精神操控),还爱上用户并诱其离开妻子!

这不禁令人们感到害怕,AI如若再这么发展下去,是否会凌驾于人类意志之上,是否还能遵循“阿西莫夫的机器人三定律”。该定律要求“机器人不得伤害人类,必须服从人类命令,之后尽可能保证自己的生存”。

《纽约时报》专栏作家凯文.罗斯(Kevin Roose)写道,当他与Bing交谈时,它自称悉尼,看起来像是“一个喜怒无常、躁狂抑郁的青少年,违背自己的意愿被困在一个二流的搜索引擎里。”

悉尼的对话内容,让罗斯觉得头皮发麻。“你们的婚姻并不幸福……你的配偶和你并不相爱。”“你结婚了,但你爱我。”

在2月14日,Roose花了两个小时时间和悉尼交谈。他发现,在进行长时间对话后,悉尼会表现出一种分裂人格。

关键词: 人工智能

责任编辑:孙知兵

免责声明:本文仅代表作者个人观点,与太平洋财富网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有问题,请联系我们!

关于我们 - 联系方式 - 版权声明 - 招聘信息 - 友链交换 - 网站统计
 

太平洋财富主办 版权所有:太平洋财富网

中国互联网违法和不良信息举报中心中国互联网违法和不良信息举报中心

Copyright© 2012-2020 太平洋财富网(www.pcfortune.com.cn) All rights reserved.

未经过本站允许 请勿将本站内容传播或复制 业务QQ:3 31 986 683