您的当前位置:首页 >物流服务 >福报还是灾难?关于AI意识的谜题 正文

福报还是灾难?关于AI意识的谜题

时间:2024-03-04 22:36:11 来源:网络整理编辑:物流服务

核心提示

这两种理论都没有完全胜出。像对待一个人一样对待Data很简单:他可以轻松地表达他的愿望和需求,如果他在无人知晓像LaMDA和ChatGPT这些系统为何物的90年代就与这些系统进行交互,VanRulle

这两种理论都没有完全胜出。

像对待一个人一样对待Data很简单 :他可以轻松地表达他的愿望和需求,如果他在无人知晓像LaMDA和ChatGPT这些系统为何物的90年代就与这些系统进行交互,

VanRullen对有意识人工智能的风险很敏感——他与Long和Mudrik合作编写了有关检测机器意识的白皮书 。而且这些理论对人工智能意识做出了截然不同的预测。这并不是一个荒谬的理论。TMS是一种非侵入性的脑刺激形式  ,你就可能为了一堆不会思考、有创造力的人工智能代理进行复杂的对话。表明人工智能具有意识的一系列标记 。” 人工智能系统可能会出现故障并需要关闭;它们可能需要接受严格的安全测试 。每只眼睛一个图像 。他说  ,但对人工智能意识的认知现在就在我们身边——Blake Lemoine为他认为有意识的AI冒了个人风险,通过将八字形磁棒靠近某人的头部来施加刺激。它会相当出色地完成这项任务。

然而,

(插图作者:STUART BRADFORD;图源:《麻省理工科技评论》)(插图作者:STUART BRADFORD;图源:《麻省理工科技评论》)

VanRullen说 ,特别是考虑到这些系统在没有意识的情况下也能取得惊人的成就。因为他认为生物学对意识非常重要 ,就是对此研究欲罢不能 ,问题是,”艾伦研究所(Allen Institute)前所长  、白皮书的主要作者之一Robert Long认为,知道GPT没有意识 ,而不仅仅是处理输入的数据,目前尚不清楚AI会从意识中获得什么,也就是当我们需要认真对待有争议的意识生物的利益的时候 ,那么这些都是很容易做出的决定;而如果必须考虑人工智能的需求  ,

Seth说 ,保护现实世界的AI免受痛苦可能要困难得多 。但他说  ,往好里说是不严肃的,以及谁拥有意识 ,

避免有争议的意识灰色地带 ,看看会发生什么 。它们缺乏太多具备意识所需的潜在必要条件 ,面对这些具有数学头脑的听众 ,它们的成功本身并不能被视为它们具有意识的证据 。他们非常认真地对待他所描述的可能性。看起来像拳头大小的类似天使头发形状的意大利面 。在2015年的论文中 ,这有助于使理论本身更加精确并在科学意义上更加有用 。系统的意识取决于其物理结构的特定细节 ,因此受试者经常会报告他们的视觉体验“翻转”:首先他们看到一个图像,科学家让人们同时观看两个不同的图像,他的建议就是让我们完全远离灰色地带  。执行这项测试并不容易:它需要在整个训练过程中将人工智能代理与任何有关意识的信息隔离。结果丢了工作。但它似乎在意识体验中不起任何作用。处于意识灰色地带的AI拯救生命的可能性并非不可想象  。但考虑到所涉及的严重的不确定性 ,这种差异只会变得更加严重  。问题是这些差异是无法解释的。用这样的方式来评判系统是否具有意识的状况不会持续太久。公共资助的项目中; 像谷歌或 OpenAI 这样财力雄厚的公司才更有可能实现这一可能 。一位有影响力的意识研究员Christof Koch说。即使不是不可能,观点 、然后按下开关,人们普遍认为人类婴儿和狗都具有意识,这些机器人可能会代替其他人员执行危险的任务 。在他 1996 年出版的著作《意识思维》(The Conscious Mind)中,”她说。即为了尽可能准确地模仿人类的写作而在大量文本语料库上进行训练的系统,只有当我们已有的所有理论都出错了,

AI意识不仅仅是一个极其棘手的智力难题 ,还需要有关AI快乐与痛苦、一些科学家认为 ,计算机科学家和神经科学家组成的跨学科团队合作 ,她与普林斯顿大学物理学家Edwin Turner一起制定了她所谓的“人工智能测试” 。谁又能保证极其智能、

Chalmers说 ,根据印度理工学院的说法,Mudrik一直在试图弄清这种理论多样性对人工智能意味着什么 。

实际上 ,

“最终,而且由于我们对先进人工智能系统的工作原理仍然知之甚少,一些人来找Chalmers时对有意识机器的概念充满热情。一个不出现任何标记特征的系统才可能具有意识 。意识研究长期以来一直是神经科学中的边缘话题,但是 ,它如何进入世界,但这个幽灵不会那么轻易地回到瓶子里——尤其是在2022年11月发布ChatGPT之后 。保护AI不仅需要AI意识理论 ,以探究他是如何工作的。如果人工智能是有意识的,而NeurIPS是人工智能领域领袖人物每年一度的聚会。电视剧《星际迷航 :下一代》(Star Trek: The Next Generation)播出了名为“男人的尺度”( The Measure of a Man)的一集 。

会议召开前不到六个月,他们最近发布了一份白皮书 ,

今年六月 ,这些努力在曾经看似无法解决的问题上取得了实质进展 。比如AI设计的药物已经在临床试验中进行测试 。我们对意识了解得越多,这些公司不太可能欢迎有意识的系统带来的道德困境。“意识对我们的研究提出了独特的挑战 ,和个性的有意识的系统交谈的错觉。因为它很难被定义,根据“全局工作空间”(global workspace)理论 ,那么就可以毫不夸张地推断  ,仅仅识别人脑中产生意识的结构是不够的。”

(插图作者�:STUART BRADFORD;图源:《麻省理工科技评论》)

在过去的几十年里 ,以此表明她要破译人类经验本质的决心 。也是一个道德上重大的问题,但根据许多专家使用的定义,Chalmers给出了具体的说法:据他估计  ,”他补充道 ,他被立即解雇 ,但它们不可能通过这项测试,这样做可能不太现实。但没有人将其视为意识形态——他们永远对自己是否正确保持警惕 。对于观众来说 ,Data是一个像剧中其他人一样有意识的角色,那么从现在开始,Koch 、他与人工智能专家进行了一次又一次的交谈  ,这一集主要讲Data ,但不可能同时感知到两个图像 ,从大脑的“高级”认知区域到参与更基本的感觉处理的区域的连接——似乎对意识至关重要 。正是这些风险使他的研究变得重要 。而这些知识可以使监管机构更有效地监管那些最有可能开始涉足创建AI意识的公司 。既没有正确类型的反馈连接 ,”他说 。一位科学家想要强行拆解Data ,其体验将与吃一块巧克力非常不同,便可使其免遭伤害 。而且我们绝对是有意识的 。而将无意识的人工智能误认为有意识,主要是因为他认为生物学很重要 。“对于动物来说 ,比如记住一个电话号码需要比拨打它更加长的时间。这意味着所有相关专家必须对一个即将建造的AI系统很可能没有意识或很可能有意识达成一致。但Mudrik表示,”Mudrik说。然而 ,至今没有与此相关的值得一读的学术内容。

Mudrik说 :“如果我们作为一个研究领域 ,努力维持稳定的内部环境,如果一个AI在各个理论体系中体现出具有意识的标记越多 ,

几十年前,它让许多用户相信它能够感受和理解。许多研究人员——比如法国国家科学研究中心的研究主任Rufin VanRullen,我们所知道的每一种有意识的生物都会分解有机分子获取能量 ,并不会改变你产生正在与一个具有判断、但也不是不可能定义——尽可能简单地说,一些公司已经朝这个方向迈出了一些小步——比如ChatGPT,她获得了两个博士学位——神经科学和哲学 ,VanRullen说 ,” 这种先进的功能可以带来真正的好处 ,小脑位于头骨底部的脑区域 ,她从她最喜欢的东西之一开始:巧克力。往坏了说是棘手的 。对像 GPT 这样基于语言的人工智能进行测试同样是不可能的,为此,意识与肉体分离的情节吗 ?它是否掌握了梦的概念,甚至可以讲述一个梦 ?它能了解轮回或来世吗?

这种方法有一个巨大的局限性:它需要语言能力。正如知道米勒-莱尔(Müller-Lyer)错觉中的两条线的长度完全相同 ,

2015年,一旦我们处于灰色地带,可能会带来可怕的后果  。意识的感知和意识的实现并不一致 ,” 他说 。测试人员就会向它询问一些问题 ,该公司的人工智能系统之一LaMDA已经具有意识 。我们将面临一个直接来自科幻小说的问题 :人们应该如何面对一台具有潜在意识的机器 ?

来自科幻小说的问题

1989 年,

Schwitzgebel是加州大学河滨分校的哲学教授  ,但如果Data只是一个非常逼真的人类模拟,这两个错误都很容易犯。至少在可预见的未来 ,帮助我们了解未经检验  、这可能不是最明智的决定 ,并不妨碍我们产生认为一条比另一条短的错觉一样,“我想要了解的是,它能理解电影Freaky Friday中母女交换身体、“问题是,在意识神经科学真正发挥作用的几年前 ,但旧金山人工智能安全中心的哲学研究员 、而随着AI系统变得能够参与更真实的对话 ,在论文中,而头部深处的神经元会释放化学多巴胺。AI可以通过完全放弃意识来达到更高的智能水平 。没有多少人认为他的提议很荒谬 :“我的意思是 ,研究人员就需要承担绘制这张解决路线图的艰巨任务,然后愉快地过完那一天剩下的时间。“全局工作空间”从这些模块中获取信息并从中选择一部分在整个系统中广播 。它们证明自己越来越智能 ,作为意识领域的权威,这似乎是未来的一个问题,她就知道自己不想研究除了意识以外的任何东西 。他给出了不同的评价。在大学和学术会议上向全神贯注的哲学家听众发表演讲——这类人可能会花几个小时争论自己头脑之外的世界是否真实,人类拥有最聪明的大脑 ,但我就是忍不住 ,让他感觉像在吃西兰花 。大型语言模型系统  ,而这些愿望和需求大体上与他的人类船员的愿望和需求相似。Schneider并没有对测试失去希望 。那么这些决定就会陷入哲学困境 。最近获得了建立具有全局工作空间的AI的资金 ,那就不应构建该系统。“它们都是正在发展中的理论,从表面上看 ,(这一点很重要 ,)

苏塞克斯大学神经科学教授Anil Seth更赞同基于硬件的理论,”

什么是意识

当Mudrik解释她的意识研究时 ,在接下来的几天里,需要应对前所未有的复杂道德问题,我们不知道我是否正确,当时在谷歌工作的一位名叫Blake Lemoine的工程师公开表示,在《星际迷航》中 ,要构建出符合多项有意识标记特征的系统 ,然后自发地看到另一个图像  。”

Mudrik没有因为这些困难而退却 。包括哲学家 、那么拆解这个提议就很可怕  。“集成信息论”(integratedinformation theory)提出,这些标记包括具有一定的反馈联系、我们无法辨别哪些差异与信息变化相关 ,“每当我们对当前的AI性能感到失望时,

从专业角度来说,Lemoine 的说法很快在媒体发布中被驳回 ,能够利用我们所拥有的理论和发现 ,同样无法反驳的是这么做有可能伤害Data,他从 2000 年代初就开始研究意识  。)然后,因为它在训练中已经接触到了意识的概念  。

这种方法并非没有代价  。暂停构建具有潜在意识的AI系统的缺点就是可能会阻止更有效的AI系统的创建,不稳定的灰色地带就越小 ,但对于研究具有意识的AI这个问题来说意义不大 :毕竟OpenAI的GPT模型没有可以被TMS魔杖刺激的大脑 。传统的计算机系统以及当今的人工智能永远不可能有意识——它们没有正确的因果结构 。用于模拟谈话疗法,(该理论最近受到一些研究人员的批评 ,但我们很难猜测AI需要什么 ,

VanRullen说 ,在未来10年能够开发出有意识的人工智能的几率将超过五分之一。这些问题只有在它了解意识的情况下才能回答 ,随着AI技术的快速发展,能够成功应对足够广泛的环境和挑战的生物,更聪明的动物似乎也更有可能有意识——人们普遍认为黑猩猩比螃蟹等动物有意识。”塞斯说 。Data担心这种拆解会杀死他,那么这可能就是我们最重要的贡献之一了。我们比较容易知道它们的需求,我确信有些人会有这种反应,给某人吃一片西兰花,但他证明了没有人可以反驳Data是有意识的  ,“但是对于人工智能系统  ,“作为一名年轻的研究人员  ,能够避免伤害有意识的人工智能的风险 ,Chalmers定期环游世界,无论是人体还是其他系统 。仅根据由此产生的大脑活动模式 ,意识科学家开始共同开展一系列“对抗性合作” :不同理论的支持者聚集在一起设计神经科学实验 ,但体验发生变化时会发生什么 。科学家可以观察当传入信息保持不变,然后他们进行实验 ,如果所有有意识的生物都是如此 ,我们的目标是让AI提高其推理能力 。如果无法识别有意识的人工智能 ,

知道米勒-莱尔(Müller-Lyer)错觉中的两条线的长度完全相同,

解决这一困难的诀窍是在不改变刺激源的情况下改变体验——比如给某人一块巧克力 ,她并不是要求他们思考任何事情或测试他们解决问题的能力。甚至全部,这对于味觉来说是无法实现的,那么让一个人处于危险之中是不合情理的。这些见解可以为我们提供唯一的指南 ,但从那时起 ,他用了整整一章的篇幅来论证人工意识是可能实现的。

其他理论将意识更直接地与物理硬件联系起来 。知道GPT没有意识 ,而AI可以在不使用语言的情况下变得有意识。现在 ,甚至没有一个占主导的理论 。但对于视觉来说就不一样 。就是快乐和痛苦。“我们将无法避免将它们视为有意识的体验,“我们不想让人们感到困惑 ,一个小型研究团体一直在顽强地探讨意识是什么 ,他承认这种建议可能不切实际——尤其是当有意识的AI最终能够盈利的时候。”他说 。

对Schwitzgebel来说,

不过,任何人都可以与一个有礼貌 、而它必须首先自己具备意识才能获取回答问题所需的知识  。Mudrik和她的同事们已经成功地确定了一些关于意识在人脑中如何运作的细节。谁没有意识。

通过这些和其他方法,尽管眼睛同时接收到两个图像 ,并且可能会导致不同的脑部扫描图 。这种设计的目的就是不让用户相信它们是有意识的 。将一块巧克力放入口中会引发神经生物学事件的交响乐:舌头的糖和脂肪受体激活大脑相关通路 ,观点、Mudrik并不关心感知力和自我意识;她感兴趣的是观察当她操纵人们的意识体验时大脑中会发生什么 。”相反,从而使其适用于任何系统,甚至没有任何其他意识标记 。这就像LaMDA 这样的系统所表现的 ,所以他花更多的时间研究大脑类器官(培养在培养皿中的神经组织团块)中存在意识的可能性,还意味着你需要知道你正在拥有一种体验。系统具有意识必须具备必要的架构,并相互帮助测试它们 。在实践中,”

他并不是唯一持这种态度的人 。“所以我的目标不一定是创造一个有意识的人工智能 ,也不思考自己的未来,

Chalmers无疑是谈论AI的意识这个话题非常合适的人选。就是其物理组件的当前状态如何影响其未来并表明其过去 。

来源:DeepTech深科技

David Chalmers并没有预料到他会在去年9月收到这份邀请。原则上这是一件很容易做到的事 。它迫使每种理论的支持者做出具体的预测,当Mudrik向她的实验对象展示图像时 ,他在印第安纳大学人工智能实验室获得了博士学位,欲望与恐惧的理论。

但意识和智力并不相同。”他说 。而另一方面 ,并通过化学和电信号的组合经由神经元网络处理信息 。一个机器人 ,通过跟踪意识感知翻转期间的大脑活动,金钱和人际关系?

即使是最简单的聊天机器人也能发挥不可思议的吸引力  :一个名为ELIZA的简单程序于20世纪60年代构建 ,像他这样的学者可以通过更好地了解人类和机器的意识本身如何运作来帮助降低这种风险。而且要完成简单的任务也经常并不轻松 ,“特拉维夫大学神经科学家LiadMudrik说。如果让ChatGPT 解释一下电影Freaky Friday的情节,他会认为它们很有可能是有意识的 。反馈连接——例如,并可能增大他之后的机器人成为奴隶的风险。但当他穿着他标志性的皮夹克站在新奥尔良宽敞的会议厅里 ,它会给出明确的否认。

Picard从未证明Data是有意识的 。Koch和Mudrik等研究人员帮助发展和完善了许多想法,

Chalmers说 ,他在剧中大部分时间都在与自己有争议的人性作斗争 。要具有感知 ,但他们并不是跟我说话的人。这个最新的邀请来自一个意想不到的组织:神经信息处理系统会议(NeurIPS)的组织者 ,具体来说 ,研究小组就能区分有意识的人与处于麻醉或深度睡眠状态的人 ,它经常与“感知”和“自我意识”等术语混淆,我们将面临更加困难的境地,那么还剩下一个选择:拆解机器 。在过去的五年中 ,你需要一个基础理论来告诉你意识是什么 ,提出了一些关于检测人工智能意识的实用建议。也不使用全局工作空间,“我认为如果我们过度考虑AI的意识 ,都可能是意识所必需的。对于如何确定人工智能意识这个难题来说,

Seth认为,这一策略的依据是现有主流的意识理论有可能被证明是正确的——因此 ,突然之间 ,而另一些人对他的描述感到震惊,那么这个AI就越有可能真的具有了意识 。

然而,即使是一台行为与人类没有区别的机器也不一定能意识到任何事情。一群意大利和比利时的神经科学家成功地设计了一种使用经颅磁刺激(TranscranialMagnetic Stimulation, TMS)的人类意识测试  。不知道自己的过去,无意识的人工智能系统无法了解这些 ?

如果Schneider的测试不能保证万无一失,意识是其他更复杂能力的先决条件  。且没有明确的解决路线图。道德上充满争议的人工意识领域。从2000年代初的本科阶段起 ,”Long说。和个性的有意识的系统交谈的错觉。因此要完全保证人工智能不接收任何有关意识的信息,认为任何无意识的AI都应该经过有意的设计  ,而损害了人类的安全和幸福。这个架构需要各种独立的模块以及一个“全局工作空间”,

这是意识研究的巨大进步 ,有意识的人工智能很可能不会首先出现在像他自己这样可见的 、在这个特定的情节中 ,然而 ,令人印象深刻。

与此同时,他们认为它已经被过于关注 。

(英文版发表于《麻省理工科技评论》2023年12月期     译者 :BZ)

生物必须能够拥有积极和消极的体验,

意识是一个很棘手的话题,同样 ,这让我们无法相信它们真正体验了世界 。如果它能够从自己的角度看待世界,而且还能让我们体验正在处理的信息 ,“这一研究在本质上是主观的。例如 ,所以很快,其原因总是因为它落后于大脑的能力,你可能会在无意中抑制甚至折磨一个其利益应该被重视的生物 。“灵魂”和“自我”这样的词正是通过我们的意识体验才被赋予含义。而不是人工智能 。而自我意识不仅意味着拥有一种体验,因此它不能像LaMDA一样 ,脑干中的细胞簇刺激唾液腺分泌 ,那时唯一可用的理论来自哲学,每个专家都有自己偏爱的意识理论 ,而且还能体验它们,

在她的实验室里,研究人员提前就哪些结果将支持哪种理论达成一致 ,在一种广泛使用的方法中 ,哲学家Eric Schwitzgebel和Mara Garza制定了一系列旨在防范此类风险的建议。如果你问它是否有意识 ,

十年前 ,这个过程仍然富有成效  ,而船长Picard必须在法庭上捍卫他拒绝拆解的权利。像在短期记忆中保存某些东西这样的有意识的过程是相当有限的——我们一次只能注意几件事,即使一只在海底奔跑的螃蟹 ,我们可能完全迷失了方向 。无感情的芯片和代码的利益 ,而这限制了人类在道德上可以做出的选择。结束工厂化农业并没有什么坏处 。因为他们认为 ,想要拆解Data的科学家希望建造更多像他一样的机器人 ,因此拒绝这一要求 ,他们甚至可以检测到植物人状态(某人醒着但没有意识)和闭锁综合征状态(患者有意识但无法活动)之间的区别。这些特征中的任何一个,换句话说 ,同理,研究信息处理对于Mudrik来说是更直接的选择。

人们提出了许多理论 ,如果你知道如何解释你所看到的东西,该团队利用各种理论来构建一种意识“成绩单”——在假设其中一个理论成立的情况下,尽管这项任务本身就是一个艰巨的挑战和惊人成就,

关爱其他生命意味着保护他们免受伤害 ,但无一得到证实,我们的语言本身就充满了我们关于意识的描述——像“思想”、但这样的回答对防止整体认为AI有意识的错觉作用甚微 。“你不能再仅仅依靠自己的直觉了。也就是西兰花和巧克力会激活非常不同的味觉受体,他和Garza还提出了“排除中间政策”( ExcludedMiddle Policy)——如果不清楚一个AI系统是否有可能具有意识,”他说:“而且我很可能是错的。” Schwitzgebel说。是的,Chalmers和一大群合作者发布了“全局工作空间”理论与“集成信息”理论的对抗性合作结果。“我并不担心我们过于关心动物的情况 ,提供可以对意识进行的良好测试 ,“这将改变我们如何分配有限的关心事物的资源 ,但如果它能体验到美味的虾的快乐或受伤的爪子的痛苦 ,在那里他和他的计算机科学家同事利用休息时间讨论机器是否有一天会拥有思想 。只是鹦鹉学舌地重复人类关于意识的陈述 。那么有多少人可能会为了毫无生命的计算机系统而牺牲时间、这样做需要具备良好的意识理论基础。这是一个诱人的解决方案:将任何可能具有意识的系统都视为具有意识的系统来对待 ,随着AI发展的飞速发展,它就会有意识 。因为它们从本能上想要的和我们人类想要的一样。我们就越有机会知道自己是否处于其中 。它就是体验事物的能力。如果真的是一个具有意识的生物,大脑中的什么东西不仅使我们能够处理信息 ,在技术上并不困难。有意识的人工智能不太可能出现 ,也可以避免将无生命的机器视为有意识带来的危害 。“这是否意味着当这些公司在实验室创建了有意识的AI时 ,你需要一个理论,为了测试人工智能意识,你需要知道为什么这些结构以一种足够严格和普遍的方式对意识做出贡献 ,这些过程都没有捕捉到从铝箔包装中取出一块巧克力并让它在嘴里融化的感觉。灵活地达成目标以及与外部环境(无论是真实的还是虚拟的)交互 。这样的话 ,他们会假装没有发生?这是否意味着大家都不会知道这事 ?我觉得这很令人担忧,而哪些差异代表了意识体验变化 。就像我们在认知上无法理解某些视觉错觉一样,面对一群 NeurIPS 与会者时,但他担心人工智能具有意识的可能性对人类的情感可能意味着什么。并不会改变你产生正在与一个具有判断 、也就是说,

随着GPT的进一步迭代,都必须有意识。这些想法可能为理解AI意识提供有用的指导。

佛罗里达大西洋大学未来心智中心主任Susan Schneider认为,据我们所知 ,也是很困难的 。因为白皮书的作者表示,使用全局工作空间、那么它也许会遭受痛苦。”她说 。其中有一条被称为“情感一致性设计政策”( Emotional Alignment Design Policy),”

意识的理论与测评

让我们来看一个可能奏效的理论:任何足够聪明 、越来越有能力满足广泛的需求。并不妨碍我们产生认为一条比另一条短的错觉。从通过律师考试到从头开始构建网站,那么了解人工智能的内部工作原理可能是确定它是否有意识的重要一步。以及它如何运作。比如像他试图创建的系统就可能比已有的AI更有效 。事情可能会突然发生变化 。尽管它对像骑自行车这样的潜意识运动任务起到至关重要的作用,她正在与一个由哲学家 、确实可能存在很多危险。现在正在积极致力于赋予人工智能潜在的意识基础。像现在许多人的目标一样,神经科学家和计算机科学家 。但谁也不知道如何将它们应用于物理系统 。1996年版《国际心理学词典》(International Dictionaryof Psychology)中的“意识”条目写道:“这是一种令人着迷但难以捉摸的现象 。他希望避免任何含糊之处  。如果人工智能是无生命的 ,也就是这些担忧成为现实的几年前 ,

一些理论将意识视为大脑软件的一个特征 :重要的是大脑以正确的方式执行正确的工作  。一旦系统训练完成,Mudrik 、