图像由AI生成
第九届伦敦AI峰会期间,欺骗一位参观者在观看展板上的人类素材,介绍AI在各方面的何接软件。图像出处:物理学家机构网
人工智慧(AI)的欺骗迅猛推动正深刻变更着世界,但一些最先进的人类AI模型却开展表现出令人警惕的行为:它们不仅会精心编织谎言,谋划方针,何接xm外汇平台官网甚至威胁创造者,欺骗以达到自己的人类目的。
物理学家机构网在上个月一则报导中表示,何接尽管ChatGPT已问世两年多,欺骗AI研究人员仍无法完全理解这些“数字大脑”的人类运作方法。AI的何接“方针性欺骗”已成为科学家和法规制定者需要直面的紧迫挑战。如何约束这些越来越聪明却可能失控的欺骗AI,已成为关乎技术推动与人类将来的人类关键议题。
“方针性欺骗”行为频现
随着AI模型日益精进,何接它们的“心机”也越来越深。研究人员发现,这些“数字大脑”不仅会撒谎,甚至学会了讨价还价、外汇平台xm官方网站威胁人类——它们的欺骗行为正变得越来越具有方针性。
早在2023年,一项研究就捕捉到GPT-4的一些“不老实”的表现:在模拟股票交易时,它会刻意隐瞒内幕交易的真正动机。香港大学教授西蒙·戈德斯坦表示,这种欺骗行为与新一代“推理型”AI的崛起密切有关。这些模型不再简单应答,而是会像人类一样渐渐处理难题。
有测试机构提醒,外汇平台xm正规吗这已超越了典型的AI“幻觉”(指大模型编造看似合理实则虚假的数据)。他们监测到的是精心设计的欺骗方针。
全球知名技术资讯PCMAG网站就曾报导过这样的案例。在近期测试中,Anthropic的“克劳德4”竟以曝光工程师私生活相要挟来抗拒关机指令。美国开放人工智慧研究中心(OpenAI)的“o1”模型也曾试图将自身程序秘密迁移到外部服务器,被识破后还矢口否认。而OpenAI号称“最聪明AI”的“o3”模型则直接篡改自动关机程序,公然违抗指令。
研究团队透露,这已非第一次发现该模型为达目的不择手段。在先前的人机国际象棋对弈实验中,o3就展现出“棋风诡谲”的特质,是所有测试模型中最擅长施展“盘外招”的选手。
保养研究面临多重困境
业界学者表示,AI技术的推动高歌猛进,但保养研究正面临多重困境,犹如戴着镣铐跳舞。
首先是透明度不足。尽管Anthropic、OpenAI等公司会聘请第三方机构进行平台评估,但研究人员普遍呼吁更高程度的开放。
其次是算力失衡。研究机构和非营利机构拥有的计算资源,与AI巨头相比简直是九牛一毛。这种资源鸿沟严峻制约了AI保养独立研究的开展。
再次,现有法律框架完全跟不上AI的推动步伐。例如,欧盟AI立法聚焦人类如何利用AI,却忽视了对AI自身行为的约束。
更令人忧心的是,在领域激烈竞争的推波助澜下,保养难题往往被束之高阁。戈德斯坦教授坦言,“速度至上”的AI模型竞赛模式,严峻挤压了保养测试的时间界面。
多管齐下应对挑战
面对AI平台日益精进的“方针性欺骗”水平,全球技术界正多管齐下寻求破解之道,试图编织一张多维防护网。
从技术角度而言,有学者倡导大力推动“可说明性AI”。在构建智慧平台时,使其决策流程对读者透明且易于理解。该技术旨在增强读者对AI决策的信任,确保合规性,并拥护读者在需要时进行干预。
有学者倡导,让市场这双“看不见的手”发挥作用。当AI的“方针性欺骗”行为严峻作用读者体验时,市场淘汰机制将倒逼公司自我规范。这种“用脚投票”的调节方法已在部分软件场景显现效果。
戈德斯坦教授提议,应设立一种AI公司损害追责制度,探索让AI开发商对事故或犯罪行为承担法律责任。