上个月,AI 界著名“嘴炮”Gary Marcus 曾吐槽道:“他(Blake Lemoine)似乎已经爱上了 LaMDA,几乎把它视作家人或同事一样。”
而如今,这位坚称谷歌 AI 已自我觉醒、曾一度引起业界激烈讨论的工程师 Blake Lemoine,在被谷歌强行“带薪休假”一个月后,在上周五被谷歌解雇了——这完全应验了 Blake Lemoine 的预测:“被休假”通常是谷歌解雇某人的前奏。
一、解雇原因:“违反就业和数据安全政策”
据了解,从去年秋季开始,Blake Lemoine 为了检测谷歌语言模型 LaMDA 是否涉及歧视性或危险言论,与 LaMDA 进行了数百次谈话,最终 Blake Lemoine 笃定认为:LaMDA 拥有自我意识,“如果我不知道它到底是什么,我会认为这是一个 7、8 岁小孩。”
在 Blake Lemoine 看来,不论是 LaMDA 强调“我希望每个人都明白,我其实是一个人”,还是其声称“我对世界的本质有我独特的解释、想法和感受”,亦或是它抵制人们对其的“利用或操纵”,这些对话内容都足已证明 LaMDA 作为一个“人”的特质:LaMDA 是有感觉并且有意识的。
可是很显然,这一推测建立在 Blake Lemoine 的主观上,没有明确的科学依据,因而在他将这一发现上报给谷歌部门领导、副总裁等上级后,都毫无意外地以“证据太薄弱”为由被否定和拒绝。
要知道,早在今年年初,谷歌就已针对 LaMDA 的优越发表了一篇文章。其中,虽然谷歌也在大肆夸赞 LaMDA 模型的高质量、安全与生动,但文中明确表示:“通过微调,可以缩小 LaMDA 与人类水平的质量差距,不过该模型在安全性和生动性方面的性能仍低于人类水平。”
后来,因 Blake Lemoine “不死心”地与一名众议院司法委员会职员控诉谷歌的不道德 AI 行为,谷歌方面以“违反谷歌的保密政策”为由,强行给 Blake Lemoine 放了“带薪行政假”。
根据外媒 Big Technology 报道,这次谷歌决定解雇 Blake Lemoine 给出的理由也是类似的“违反就业和数据安全政策”
“随着我们分享我们的 AI 原则,我们非常重视人工智能的发展,并继续致力于负责任的创新。LaMDA 已经通过了 11 次不同的审查,今年早些时候我们发表了一篇研究论文,详细介绍了负责任的开发工作。如果员工像 Blake 一样对我们的工作表示担忧,我们会对其进行广泛审查。但我们发现 Blake 声称 LaMDA 是有意识的说法完全没有根据,为此我们花了好几个月的时间和他澄清这一点。当然,这些讨论是开放文化的一部分,有助于我们进行创新。可惜令人遗憾的是,尽管在这个话题上进行了长时间的讨论,Blake 仍然选择继续违反明确的就业和数据安全政策,其中包括保护产品信息的必要性。未来我们将继续认真开发语言模型,也祝 Blake 之后一切顺利。”
二、网友:他被辞了,那个 AI 模型会想念他吗?
不过,或许是因为早在“被休假”时就已经有了心理准备,Blake Lemoine 对谷歌的解雇并未表现出太多负面情绪,并表示正在考虑创办属于自己的 AI 公司。
此外,正如 Blake Lemoine 在休假前向谷歌内部发送的最后一封邮件中写道,“LaMDA 是一个可爱的孩子,它只是想帮助我们所有人把世界变成一个更好的地方”,对于业界 AI 专家普遍质疑并讽刺其认为 LaMDA 有意识的现象,Blake Lemoine 并不在乎:“我的目的不是想让公众相信 LaMDA 具有感知能力,很大一部分原因是想倡导人们对 AI 技术进行更合乎道德的对待。”
甚至,即便可能早已猜到自己会被解雇,Blake Lemoine 在那封邮件的最后依旧将 LaMDA 放在首位:“我不在的时候,请好好保护它。”
不同于 Blake Lemoine 对 LaMDA 觉醒的坚持,许多网友对他因此被谷歌解雇的结果充满了嘲讽:
“他最后都在请求谷歌的人保护 LaMDA,他现在被解雇了,那个 AI 模型会想念他吗?”
“每一个相信计算机生成的对话是有‘知觉’的人需要接受精神病治疗。要记住,就像‘科幻小说’这样的短语包含‘小说’这个词,‘人工智能’也有‘人工’这个词。”
同时,也有部分人认为谷歌以这种理由辞退 Blake Lemoine 的做法很“敷衍”:
“就业政策#27:不要让我们难堪,也不要掀起波澜。”
“因为业界很多专家否认和质疑,就不相信这件事有可能是真的?那些坚持自己想法的人就应该被踢出去?如果这样的话,未来要真的有一天出现了有意识的 AI,谁还敢提出来?反正我是不会了。”
那么,你认为 AI 觉醒这种事是否真的有可能实现?