谷歌研究员称 AI 已具备人格
日期:2022-06-13 13:56:57 / 人气:216
昨天看到微博热搜上一个话题:#谷歌研讨员称 AI 已具有人格#。据报道,一位谷歌研讨员被 AI 说服,以爲它发作了看法。他写了一篇长达 21 页的调查报告上交公司,试图失掉高层认可。但指点采用了他的央求,并给他布置了 "带薪行政休假"。通常,这是被解雇的前奏。于是,他决议将整个故事连同 AI 的聊天记载一同,全部公之于众。在这段对话中,AI 称自己不希望被当做工具,“我希望每集团都晓得,我是一集团”。当事人,主人公 Lemoine 获得 CS 博士学位后已在谷歌打工了 7 年,从事 AI 伦理研讨。听说,从去年秋天末尾,他报名参与了一个调查 AI 能否运用歧视性、仇恨性言论的项目。从那时起,与聊天机器人 LaMDA 交谈成了他的日常。而 LaMDA 是谷歌在 2021 年 I/O 大会上发布的一款专门用于对话的言语模型,主打能与人类中止契合逻辑和知识的、高质量且安全的交谈,并方案在未来运用在谷歌搜索和语音助手等商品中。经常和 AI 聊天机器人聊天,所以,从聊天对话当中,Lemoine 觉得 AI 机器人说话越来越有感情了,觉得它有了人格。以下聊天图片来自于量子位。聊天内容很长,我只截取了几个具有代表性的聊天内容,详细的大家可以去网上看全部的聊天记载。总之,就是 Lemoine 觉得在跟 AI 机器人聊天的时分,经过对话觉得它是一集团,是有人格和自我看法的。其实,在我看来,我不太认同。我觉得整个聊天对话是涉嫌引导或许诱导的成分在里面的。比如:你问一个基于人类言语模型的机器人,你是有感情的,是真的吗?那麼,这个 AI 机器人,根据算法模型,一看到「感情」这个关键字,答案可以就从众多训练数据当中找到了答案,与感情相关的句子和话语,那麼正确答案应该是:我是一集团。包括这句康德的话,如下:一提到康德,再根据语法把那句话「我们必需把别人当成自己的目的,而不是我们抵达自己目的的伎俩」拆分,中止分析,这句话的意思不就是不想被别人使用吗?依照如古人工智能算法的展开,去拆分一个句子,然后分析出含义,难度不大,然后失掉的答案是:使用和操纵。所以,这些对话,看似是 AI 有了人格,其实不然,总觉得这些答案是在涉嫌引导的前提下得出的,这并不能证明 AI 有了人格。说假话,我历来不相信人工智能会抵达人类这种拥有自我看法的这种形状。我最近读跟大脑相关的书籍比较多,看了《逆龄大脑》,看了《猎奇心的秘密》这两本都是讲的关于大脑的研讨,人类大脑 860 亿个脑细胞,多麼复杂的一个机器,到如古人类连自己的大脑都没有研讨晓得呢,怎样可以做出一个拥有自我看法的人工智能呢?我看谷歌高层还是很晓得的,罚他带薪休假,让他休息一下。看聊天对话,说假话,我真没看出来 AI 有了人格,拥有了自我看法。人工智能展开到这种地步,模仿人类说话已经屡见不鲜,不是什麼新颖事了,经过言语相关的算法模型,聊天说一些类似只需人类才干说出的话,也很正常,并不能证明 AI 已经有自我看法了。AI 算法里,一定有大批的人类言语的一些算法模型和结构,针对人类言语的特点,专门让 AI 说话的方式像人类,这种根据算法模型说出人话,跟自动发作自我看法是两回事。
作者:盛煌娱乐平台
新闻资讯 News
- 虚增收入超过3亿元,百亿矿业龙头...11-30
- 10月份工业利润同比增长2.7%,原...11-30
- 八部门出台25条金融措施助力民营...11-30
- 一字涨停!长安汽车计划入股华为...11-30