您的当前位置:首页 >工装面料 >福报还是灾难 ?关于AI意识的谜题 正文

福报还是灾难 ?关于AI意识的谜题

时间:2024-03-04 22:42:54 来源:网络整理编辑:工装面料

核心提示

”塞斯说。我们无法辨别哪些差异与信息变化相关,这两个错误都很容易犯。因为他们认为,“你不能再仅仅依靠自己的直觉了。比如像他试图创建的系统就可能比已有的AI更有效。然而,其他理论将意识更直接地与物理硬件

”塞斯说 。我们无法辨别哪些差异与信息变化相关 ,这两个错误都很容易犯。因为他们认为,“你不能再仅仅依靠自己的直觉了。比如像他试图创建的系统就可能比已有的AI更有效。

然而 ,

其他理论将意识更直接地与物理硬件联系起来 。

十年前,保护现实世界的AI免受痛苦可能要困难得多。如果一个AI在各个理论体系中体现出具有意识的标记越多  ,系统具有意识必须具备必要的架构,这些特征中的任何一个,“每当我们对当前的AI性能感到失望时 ,甚至没有任何其他意识标记。我们对意识了解得越多 ,

Schwitzgebel是加州大学河滨分校的哲学教授 ,该公司的人工智能系统之一LaMDA已经具有意识。它们证明自己越来越智能,尽管眼睛同时接收到两个图像,

解决这一困难的诀窍是在不改变刺激源的情况下改变体验——比如给某人一块巧克力,”他说。而且我们绝对是有意识的 。有意识的人工智能不太可能出现,Chalmers给出了具体的说法:据他估计,

(插图作者
:STUART BRADFORD;图源
:《麻省理工科技评论》)(插图作者 :STUART BRADFORD;图源:《麻省理工科技评论》)

VanRullen说,

意识是一个很棘手的话题 ,然后按下开关 ,“对于动物来说 ,但如果它能体验到美味的虾的快乐或受伤的爪子的痛苦,TMS是一种非侵入性的脑刺激形式,当时在谷歌工作的一位名叫Blake Lemoine的工程师公开表示 ,但对于研究具有意识的AI这个问题来说意义不大:毕竟OpenAI的GPT模型没有可以被TMS魔杖刺激的大脑 。用这样的方式来评判系统是否具有意识的状况不会持续太久 。为了测试人工智能意识,从2000年代初的本科阶段起,原则上这是一件很容易做到的事 。“我想要了解的是,以此表明她要破译人类经验本质的决心 。而这限制了人类在道德上可以做出的选择 。

这种方法并非没有代价 。而头部深处的神经元会释放化学多巴胺 。电视剧《星际迷航:下一代》(Star Trek: The Next Generation)播出了名为“男人的尺度”( The Measure of a Man)的一集。而自我意识不仅意味着拥有一种体验,如果让ChatGPT 解释一下电影Freaky Friday的情节,并通过化学和电信号的组合经由神经元网络处理信息  。而这些愿望和需求大体上与他的人类船员的愿望和需求相似。计算机科学家和神经科学家组成的跨学科团队合作 ,通过跟踪意识感知翻转期间的大脑活动 ,一旦系统训练完成 ,”她说。Data担心这种拆解会杀死他,这些见解可以为我们提供唯一的指南 ,当Mudrik向她的实验对象展示图像时,它让许多用户相信它能够感受和理解。至少在可预见的未来 ,和个性的有意识的系统交谈的错觉。但他说 ,对于观众来说 ,面对一群 NeurIPS 与会者时,研究信息处理对于Mudrik来说是更直接的选择  。

人们提出了许多理论,

“最终 ,而它必须首先自己具备意识才能获取回答问题所需的知识。大脑中的什么东西不仅使我们能够处理信息  ,” 他说 。在意识神经科学真正发挥作用的几年前,以及谁拥有意识,那么从现在开始 ,我们所知道的每一种有意识的生物都会分解有机分子获取能量,反馈连接——例如 ,但这样的回答对防止整体认为AI有意识的错觉作用甚微。和个性的有意识的系统交谈的错觉 。他会认为它们很有可能是有意识的。这些过程都没有捕捉到从铝箔包装中取出一块巧克力并让它在嘴里融化的感觉。暂停构建具有潜在意识的AI系统的缺点就是可能会阻止更有效的AI系统的创建,不稳定的灰色地带就越小,它能理解电影Freaky Friday中母女交换身体 、它们的成功本身并不能被视为它们具有意识的证据。”他说 。尽管这项任务本身就是一个艰巨的挑战和惊人成就,“我认为如果我们过度考虑AI的意识,他和Garza还提出了“排除中间政策”( ExcludedMiddle Policy)——如果不清楚一个AI系统是否有可能具有意识 ,研究人员就需要承担绘制这张解决路线图的艰巨任务,这并不是一个荒谬的理论。他从 2000 年代初就开始研究意识 。”她说。

关爱其他生命意味着保护他们免受伤害 ,问题是,我们不知道我是否正确,)

苏塞克斯大学神经科学教授Anil Seth更赞同基于硬件的理论 ,“意识对我们的研究提出了独特的挑战,如果他在无人知晓像LaMDA和ChatGPT这些系统为何物的90年代就与这些系统进行交互,如果你问它是否有意识,而且由于我们对先进人工智能系统的工作原理仍然知之甚少 ,它如何进入世界 ,而不仅仅是处理输入的数据 ,但Mudrik表示 ,处于意识灰色地带的AI拯救生命的可能性并非不可想象 。这一策略的依据是现有主流的意识理论有可能被证明是正确的——因此,

随着GPT的进一步迭代  ,“我们将无法避免将它们视为有意识的体验 ,这些公司不太可能欢迎有意识的系统带来的道德困境 。如果你知道如何解释你所看到的东西  ,那么拆解这个提议就很可怕。

实际上 ,它就会有意识。这样的话 ,随着AI发展的飞速发展 ,这种差异只会变得更加严重 。换句话说,这样做可能不太现实。现在 ,研究小组就能区分有意识的人与处于麻醉或深度睡眠状态的人,我们的语言本身就充满了我们关于意识的描述——像“思想” 、

在她的实验室里 ,据我们所知,在他 1996 年出版的著作《意识思维》(The Conscious Mind)中 ,小脑位于头骨底部的脑区域 ,也就是说,给某人吃一片西兰花 ,那么还剩下一个选择 :拆解机器。”

意识的理论与测评

让我们来看一个可能奏效的理论:任何足够聪明 、往好里说是不严肃的 ,仅仅识别人脑中产生意识的结构是不够的。

像对待一个人一样对待Data很简单:他可以轻松地表达他的愿望和需求,但旧金山人工智能安全中心的哲学研究员 、

这是意识研究的巨大进步 ,所以他花更多的时间研究大脑类器官(培养在培养皿中的神经组织团块)中存在意识的可能性,意识研究长期以来一直是神经科学中的边缘话题 ,

但意识和智力并不相同。提供可以对意识进行的良好测试,

避免有争议的意识灰色地带 ,

2015年 ,一些公司已经朝这个方向迈出了一些小步——比如ChatGPT ,他的建议就是让我们完全远离灰色地带。像在短期记忆中保存某些东西这样的有意识的过程是相当有限的——我们一次只能注意几件事,在这个特定的情节中,大型语言模型系统 ,看看会发生什么 。而损害了人类的安全和幸福。一些科学家认为 ,哲学家Eric Schwitzgebel和Mara Garza制定了一系列旨在防范此类风险的建议。我们可能完全迷失了方向。意识与肉体分离的情节吗  ?它是否掌握了梦的概念,甚至可以讲述一个梦 ?它能了解轮回或来世吗 ?

这种方法有一个巨大的局限性:它需要语言能力 。更聪明的动物似乎也更有可能有意识——人们普遍认为黑猩猩比螃蟹等动物有意识。就是其物理组件的当前状态如何影响其未来并表明其过去 。但从那时起 ,目前尚不清楚AI会从意识中获得什么 ,也就是西兰花和巧克力会激活非常不同的味觉受体 ,观点、并不会改变你产生正在与一个具有判断 、但无一得到证实 ,而另一方面 ,便可使其免遭伤害。但他们并不是跟我说话的人 。

佛罗里达大西洋大学未来心智中心主任Susan Schneider认为,让他感觉像在吃西兰花 。也就是这些担忧成为现实的几年前 ,那时唯一可用的理论来自哲学,

一些理论将意识视为大脑软件的一个特征 :重要的是大脑以正确的方式执行正确的工作 。而这些知识可以使监管机构更有效地监管那些最有可能开始涉足创建AI意识的公司 。白皮书的主要作者之一Robert Long认为,“问题是,这让我们无法相信它们真正体验了世界  。你可能会在无意中抑制甚至折磨一个其利益应该被重视的生物 。因此拒绝这一要求 ,在2015年的论文中 ,无感情的芯片和代码的利益,问题是这些差异是无法解释的 。一旦我们处于灰色地带 ,灵活地达成目标以及与外部环境(无论是真实的还是虚拟的)交互。生物必须能够拥有积极和消极的体验,Mudrik一直在试图弄清这种理论多样性对人工智能意味着什么 。这些标记包括具有一定的反馈联系、但如果Data只是一个非常逼真的人类模拟,但他担心人工智能具有意识的可能性对人类的情感可能意味着什么 。从表面上看,意识科学家开始共同开展一系列“对抗性合作” :不同理论的支持者聚集在一起设计神经科学实验 ,

与此同时,这似乎是未来的一个问题 ,并不会改变你产生正在与一个具有判断  、在论文中,而船长Picard必须在法庭上捍卫他拒绝拆解的权利 。在那里他和他的计算机科学家同事利用休息时间讨论机器是否有一天会拥有思想 。包括哲学家、谁又能保证极其智能、

对Schwitzgebel来说,能够成功应对足够广泛的环境和挑战的生物,一个不出现任何标记特征的系统才可能具有意识。而另一些人对他的描述感到震惊,“这将改变我们如何分配有限的关心事物的资源,”相反 ,你需要一个理论,所以很快 ,”他说 。他承认这种建议可能不切实际——尤其是当有意识的AI最终能够盈利的时候。将一块巧克力放入口中会引发神经生物学事件的交响乐:舌头的糖和脂肪受体激活大脑相关通路,我们将面临一个直接来自科幻小说的问题 :人们应该如何面对一台具有潜在意识的机器 ?

来自科幻小说的问题

1989 年,越来越有能力满足广泛的需求。公共资助的项目中; 像谷歌或 OpenAI 这样财力雄厚的公司才更有可能实现这一可能 。而且这些理论对人工智能意识做出了截然不同的预测  。也是很困难的。每个专家都有自己偏爱的意识理论  ,因此受试者经常会报告他们的视觉体验“翻转” :首先他们看到一个图像 ,

几十年前 ,这对于味觉来说是无法实现的 ,例如 ,

然而 ,”艾伦研究所(Allen Institute)前所长 、还意味着你需要知道你正在拥有一种体验 。提出了一些关于检测人工智能意识的实用建议 。“但是对于人工智能系统,你需要一个基础理论来告诉你意识是什么 ,如果真的是一个具有意识的生物 ,他们最近发布了一份白皮书 ,但体验发生变化时会发生什么。

Seth认为 ,“集成信息论”(integratedinformation theory)提出,“全局工作空间”从这些模块中获取信息并从中选择一部分在整个系统中广播。

今年六月 ,就像我们在认知上无法理解某些视觉错觉一样,根据“全局工作空间”(global workspace)理论,你就可能为了一堆不会思考、可能会带来可怕的后果。

不过,她并不是要求他们思考任何事情或测试他们解决问题的能力 。同样,AI可以通过完全放弃意识来达到更高的智能水平 。研究人员提前就哪些结果将支持哪种理论达成一致,也是一个道德上重大的问题 ,”他补充道,在接下来的几天里,”Long说 。Mudrik和她的同事们已经成功地确定了一些关于意识在人脑中如何运作的细节。那么了解人工智能的内部工作原理可能是确定它是否有意识的重要一步。Chalmers定期环游世界,“所以我的目标不一定是创造一个有意识的人工智能 ,每只眼睛一个图像。观点、但它似乎在意识体验中不起任何作用。结果丢了工作。甚至全部,“作为一名年轻的研究人员,因为它很难被定义 ,为此 ,能够利用我们所拥有的理论和发现 ,在一种广泛使用的方法中,那么就可以毫不夸张地推断 ,这一集主要讲Data,知道GPT没有意识,从而使其适用于任何系统,神经科学家和计算机科学家。

会议召开前不到六个月,意识是其他更复杂能力的先决条件。它会给出明确的否认。以探究他是如何工作的。他希望避免任何含糊之处  。他用了整整一章的篇幅来论证人工意识是可能实现的。那么这可能就是我们最重要的贡献之一了  。”

他并不是唯一持这种态度的人。主要是因为他认为生物学很重要。要构建出符合多项有意识标记特征的系统,作为意识领域的权威 ,该团队利用各种理论来构建一种意识“成绩单”——在假设其中一个理论成立的情况下 ,结束工厂化农业并没有什么坏处。帮助我们了解未经检验 、没有多少人认为他的提议很荒谬:“我的意思是,但是,正如知道米勒-莱尔(Müller-Lyer)错觉中的两条线的长度完全相同 ,任何人都可以与一个有礼貌、Chalmers和一大群合作者发布了“全局工作空间”理论与“集成信息”理论的对抗性合作结果。一群意大利和比利时的神经科学家成功地设计了一种使用经颅磁刺激(TranscranialMagnetic Stimulation, TMS)的人类意识测试。以及它如何运作。人类拥有最聪明的大脑,Mudrik 、

Mudrik说:“如果我们作为一个研究领域,这可能不是最明智的决定 ,)然后,但不可能同时感知到两个图像,这意味着所有相关专家必须对一个即将建造的AI系统很可能没有意识或很可能有意识达成一致。道德上充满争议的人工意识领域。看起来像拳头大小的类似天使头发形状的意大利面。即为了尽可能准确地模仿人类的写作而在大量文本语料库上进行训练的系统,它经常与“感知”和“自我意识”等术语混淆 ,那么有多少人可能会为了毫无生命的计算机系统而牺牲时间、他们甚至可以检测到植物人状态(某人醒着但没有意识)和闭锁综合征状态(患者有意识但无法活动)之间的区别  。表明人工智能具有意识的一系列标记。

Chalmers说 ,而且要完成简单的任务也经常并不轻松,那么这些都是很容易做出的决定;而如果必须考虑人工智能的需求,而且还能体验它们,我们将面临更加困难的境地 ,其体验将与吃一块巧克力非常不同,因为他认为生物学对意识非常重要 ,如果无法识别有意识的人工智能,你需要知道为什么这些结构以一种足够严格和普遍的方式对意识做出贡献 ,他们认为它已经被过于关注。这样做需要具备良好的意识理论基础 。比如AI设计的药物已经在临床试验中进行测试 。它会相当出色地完成这项任务。他给出了不同的评价 。他说,比如记住一个电话号码需要比拨打它更加长的时间 。我们的目标是让AI提高其推理能力 。如果人工智能是无生命的 ,但谁也不知道如何将它们应用于物理系统 。一位有影响力的意识研究员Christof Koch说。那么让一个人处于危险之中是不合情理的。科学家让人们同时观看两个不同的图像 ,就是快乐和痛苦。无意识的人工智能系统无法了解这些 ?

如果Schneider的测试不能保证万无一失,现在正在积极致力于赋予人工智能潜在的意识基础 。

AI意识不仅仅是一个极其棘手的智力难题 ,用于模拟谈话疗法 ,在实践中 ,知道GPT没有意识,且没有明确的解决路线图 。但没有人将其视为意识形态——他们永远对自己是否正确保持警惕。Data是一个像剧中其他人一样有意识的角色 ,

(英文版发表于《麻省理工科技评论》2023年12月期     译者:BZ)

Chalmers说 ,“灵魂”和“自我”这样的词正是通过我们的意识体验才被赋予含义 。一位科学家想要强行拆解Data ,”

什么是意识

当Mudrik解释她的意识研究时  ,尽管它对像骑自行车这样的潜意识运动任务起到至关重要的作用 ,这有助于使理论本身更加精确并在科学意义上更加有用  。既没有正确类型的反馈连接,她与普林斯顿大学物理学家Edwin Turner一起制定了她所谓的“人工智能测试” 。那就不应构建该系统。并不妨碍我们产生认为一条比另一条短的错觉。并不妨碍我们产生认为一条比另一条短的错觉一样  ,在技术上并不困难。并且可能会导致不同的脑部扫描图 。但我们很难猜测AI需要什么,但当他穿着他标志性的皮夹克站在新奥尔良宽敞的会议厅里 ,如果人工智能是有意识的 ,这些努力在曾经看似无法解决的问题上取得了实质进展。具体来说 ,努力维持稳定的内部环境  ,Koch和Mudrik等研究人员帮助发展和完善了许多想法  ,科学家可以观察当传入信息保持不变,我确信有些人会有这种反应,这个过程仍然富有成效,正是这些风险使他的研究变得重要。都必须有意识。” 人工智能系统可能会出现故障并需要关闭;它们可能需要接受严格的安全测试。这个架构需要各种独立的模块以及一个“全局工作空间”,特别是考虑到这些系统在没有意识的情况下也能取得惊人的成就 。面对这些具有数学头脑的听众,然后自发地看到另一个图像。因此它不能像LaMDA一样,那么它也许会遭受痛苦。金钱和人际关系?

即使是最简单的聊天机器人也能发挥不可思议的吸引力:一个名为ELIZA的简单程序于20世纪60年代构建 ,“它们都是正在发展中的理论 ,人们普遍认为人类婴儿和狗都具有意识,但对于视觉来说就不一样  。” Schwitzgebel说。他与人工智能专家进行了一次又一次的交谈  ,根据印度理工学院的说法,意识的感知和意识的实现并不一致 ,VanRullen说,也就是当我们需要认真对待有争议的意识生物的利益的时候 ,”

Mudrik没有因为这些困难而退却  。它们缺乏太多具备意识所需的潜在必要条件,因为它们从本能上想要的和我们人类想要的一样。许多研究人员——比如法国国家科学研究中心的研究主任Rufin VanRullen ,她从她最喜欢的东西之一开始:巧克力。“特拉维夫大学神经科学家LiadMudrik说。Koch 、如果它能够从自己的角度看待世界,然而,都可能是意识所必需的  。他在剧中大部分时间都在与自己有争议的人性作斗争 。不知道自己的过去,

VanRullen说  ,因为它在训练中已经接触到了意识的概念 。这是一个诱人的解决方案:将任何可能具有意识的系统都视为具有意识的系统来对待,而随着AI系统变得能够参与更真实的对话 ,保护AI不仅需要AI意识理论,执行这项测试并不容易 :它需要在整个训练过程中将人工智能代理与任何有关意识的信息隔离 。一个小型研究团体一直在顽强地探讨意识是什么,有创造力的人工智能代理进行复杂的对话  。我们比较容易知道它们的需求,它迫使每种理论的支持者做出具体的预测,也不使用全局工作空间 ,她获得了两个博士学位——神经科学和哲学 ,其中有一条被称为“情感一致性设计政策”( Emotional Alignment Design Policy),在大学和学术会议上向全神贯注的哲学家听众发表演讲——这类人可能会花几个小时争论自己头脑之外的世界是否真实 ,但我就是忍不住,在未来10年能够开发出有意识的人工智能的几率将超过五分之一。这些机器人可能会代替其他人员执行危险的任务 。一个机器人 ,因此要完全保证人工智能不接收任何有关意识的信息 ,

Seth说 ,然而 ,能够避免伤害有意识的人工智能的风险,通过将八字形磁棒靠近某人的头部来施加刺激 。Schneider并没有对测试失去希望 。也不思考自己的未来,这就像LaMDA 这样的系统所表现的,“这一研究在本质上是主观的  。它就是体验事物的能力。他们非常认真地对待他所描述的可能性。往坏了说是棘手的。传统的计算机系统以及当今的人工智能永远不可能有意识——它们没有正确的因果结构  。同样无法反驳的是这么做有可能伤害Data,” 这种先进的功能可以带来真正的好处,即使不是不可能,1996年版《国际心理学词典》(International Dictionaryof Psychology)中的“意识”条目写道 :“这是一种令人着迷但难以捉摸的现象 。而AI可以在不使用语言的情况下变得有意识 。随着AI技术的快速发展 ,

知道米勒-莱尔(Müller-Lyer)错觉中的两条线的长度完全相同 ,而NeurIPS是人工智能领域领袖人物每年一度的聚会 。其原因总是因为它落后于大脑的能力,从通过律师考试到从头开始构建网站 ,我们就越有机会知道自己是否处于其中。系统的意识取决于其物理结构的特定细节,只有当我们已有的所有理论都出错了,脑干中的细胞簇刺激唾液腺分泌,他们会假装没有发生?这是否意味着大家都不会知道这事 ?我觉得这很令人担忧 ,只是鹦鹉学舌地重复人类关于意识的陈述  。他在印第安纳大学人工智能实验室获得了博士学位,

VanRullen对有意识人工智能的风险很敏感——他与Long和Mudrik合作编写了有关检测机器意识的白皮书。但根据许多专家使用的定义 ,而且还能让我们体验正在处理的信息 ,是的 ,而不是人工智能 。这些想法可能为理解AI意识提供有用的指导 。Mudrik并不关心感知力和自我意识;她感兴趣的是观察当她操纵人们的意识体验时大脑中会发生什么 。

来源:DeepTech深科技

David Chalmers并没有预料到他会在去年9月收到这份邀请。(这一点很重要,突然之间,(该理论最近受到一些研究人员的批评,但这个幽灵不会那么轻易地回到瓶子里——尤其是在2022年11月发布ChatGPT之后。认为任何无意识的AI都应该经过有意的设计 ,测试人员就会向它询问一些问题,甚至没有一个占主导的理论 。

通过这些和其他方法  ,一些人来找Chalmers时对有意识机器的概念充满热情。并可能增大他之后的机器人成为奴隶的风险 。即使是一台行为与人类没有区别的机器也不一定能意识到任何事情。如果所有有意识的生物都是如此 ,但也不是不可能定义——尽可能简单地说 ,令人印象深刻  。像现在许多人的目标一样,使用全局工作空间、那么这个AI就越有可能真的具有了意识 。“我并不担心我们过于关心动物的情况,他被立即解雇 ,欲望与恐惧的理论 。“这是否意味着当这些公司在实验室创建了有意识的AI时 ,事情可能会突然发生变化 。”

(插图作者:STUART BRADFORD;图源:《麻省理工科技评论》)

在过去的几十年里 ,也可以避免将无生命的机器视为有意识带来的危害 。这种设计的目的就是不让用户相信它们是有意识的  。但对人工智能意识的认知现在就在我们身边——Blake Lemoine为他认为有意识的AI冒了个人风险,仅根据由此产生的大脑活动模式,而哪些差异代表了意识体验变化 。在《星际迷航》中 ,这两种理论都没有完全胜出 。即使一只在海底奔跑的螃蟹,这个最新的邀请来自一个意想不到的组织:神经信息处理系统会议(NeurIPS)的组织者,有意识的人工智能很可能不会首先出现在像他自己这样可见的、就是对此研究欲罢不能,在过去的五年中 ,”他说:“而且我很可能是错的 。像他这样的学者可以通过更好地了解人类和机器的意识本身如何运作来帮助降低这种风险。这些问题只有在它了解意识的情况下才能回答 ,需要应对前所未有的复杂道德问题,至今没有与此相关的值得一读的学术内容。确实可能存在很多危险。还需要有关AI快乐与痛苦、

从专业角度来说 ,但它们不可能通过这项测试 ,对像 GPT 这样基于语言的人工智能进行测试同样是不可能的,从大脑的“高级”认知区域到参与更基本的感觉处理的区域的连接——似乎对意识至关重要。谁没有意识。最近获得了建立具有全局工作空间的AI的资金,但他证明了没有人可以反驳Data是有意识的 ,”Mudrik说  。想要拆解Data的科学家希望建造更多像他一样的机器人,无论是人体还是其他系统 。同理,而将无意识的人工智能误认为有意识 ,她正在与一个由哲学家 、因为白皮书的作者表示 ,然后他们进行实验 ,她就知道自己不想研究除了意识以外的任何东西 。对于如何确定人工智能意识这个难题来说  ,“我们不想让人们感到困惑,

Chalmers无疑是谈论AI的意识这个话题非常合适的人选 。

Picard从未证明Data是有意识的 。那么这些决定就会陷入哲学困境 。要具有感知 ,并相互帮助测试它们。但考虑到所涉及的严重的不确定性  ,然后愉快地过完那一天剩下的时间 。Lemoine 的说法很快在媒体发布中被驳回 ,