博鱼官方网页版-博鱼(中国)




  1. 咨询(xún)热线:021-80392549

    博鱼官方网页版-博鱼(中国) QQ在线 博鱼官方网页版-博鱼(中国) 企业微(wēi)信
    博鱼官方网页版-博鱼(中国)
    博鱼官方网页版-博鱼(中国) 资(zī)讯 > 人(rén)工智能 > 正文

    英国《新科学家》:法律能否(fǒu)要求AI讲真话(huà)?

    2024/08/09环(huán)球网340

    英(yīng)国《新(xīn)科学家》周刊(kān)网站87日文(wén)章,原题:人工智能聊天机器人(rén)能否受到“说真话”法律义务的约束人们能要求人工智(zhì)能讲真话吗?或许不能(néng),但(dàn)一(yī)个(gè)伦理学家团队表示(shì),从法律上(shàng)来说(shuō),人工智能开发(fā)商应该承担减少(shǎo)犯(fàn)错(cuò)风险的责任。“我们只是在(zài)尝试创建(jiàn)一种激励构架,让(ràng)公司在创(chuàng)建(大语言模型(xíng))系统时(shí)更(gèng)重视(shì)真实性(xìng)或准确性,”牛(niú)津大学伦(lún)理学家布伦特·米特(tè)尔施塔特(tè)说。

    基于对(duì)大量(liàng)文本(běn)的统计分析,大语言模型聊天机器人,例如ChatGPT能对用户提出的问题生成类似(sì)人类的回答。然而,尽管它们的答(dá)案通常看起来令(lìng)人信服,但也(yě)容(róng)易出错,这是一种被(bèi)称为“幻觉”的缺陷。米特尔施(shī)塔特说(shuō):“我们拥有这些(xiē)极其令人(rén)印象(xiàng)深刻的(de)生成式人工智能系统,但它们也会频繁(fán)出错,从我们对这种系统基本(běn)机(jī)能的了解(jiě)来看,没有(yǒu)根(gēn)本的解决方法。”

    米特尔施塔特表示,对大语言模(mó)型系统来说,这是一(yī)个重大问题(tí),因为它们正(zhèng)在被应用于政(zhèng)府决策,在这种情况下,它(tā)们诚实(shí)地(dì)承认自(zì)己的知识局限性就变得至关重要。为解决这个(gè)问题,他们提出一系列应对措施(shī):当被(bèi)问(wèn)及与事实有关的(de)问题(tí)时,人工智能应(yīng)该像人(rén)一样。这(zhè)意味着它们要(yào)诚实,秉(bǐng)持“知之为知之,不知(zhī)为不知(zhī),是(shì)知也”的态(tài)度。“要点在于采取(qǔ)必要步骤,让(ràng)它们真正做到谨言慎行,”米特尔施塔特说,“如果(guǒ)对某件(jiàn)事不确定,它们不要只(zhī)是为了(le)让人们信服而编造(zào)一(yī)些东西。相(xiàng)反,它们应(yīng)该说,‘嘿,你知道(dào)吗(ma)?我不知道。让我来研究一下。我会(huì)回复你的。’”

    这(zhè)似(sì)乎是(shì)一个值得称赞的目标,但在英国德蒙福特(tè)大学网络安全教授伊尔克(kè)·鲍伊腾看来,伦(lún)理学家提出的这些要求在(zài)技术上未必可行(háng)。开(kāi)发(fā)商正尝试让人(rén)工(gōng)智(zhì)能实事求是,但到目前为止,事实证(zhèng)明这是一项极其“劳动密集型”的(de)任务,甚至不切实际。“我不明白,他(tā)们怎么(me)期望(wàng)法律(lǜ)要求强制执行这(zhè)种命令,我认(rèn)为这在技术上根本行不通,”鲍伊腾说。

    为此,米特(tè)尔施塔特及其(qí)同(tóng)事们提出一些更直接的措(cuò)施,可能使人工智(zhì)能更“诚(chéng)实”。他说,这些模型应该(gāi)列出(chū)答案(àn)的信息源,目前许多模型都(dōu)在这(zhè)样做以证明(míng)它们给(gěi)出答案的可信(xìn)度,此外,更广泛地使用一种(zhǒng)被称为“检索增强”的技术来(lái)给出(chū)答案,也可能(néng)限(xiàn)制这些模型产生“幻觉”的可能性。他还认为,应该(gāi)缩减在政(zhèng)府(fǔ)决策(cè)等高风险领域(yù)部署人工智能(néng)的规模,或者应该限(xiàn)制模型(xíng)可(kě)利用(yòng)的信(xìn)息源。“如果我(wǒ)们有一个仅在医学中使用的语言模(mó)型(xíng),我们就应该限(xiàn)制它,让(ràng)它只能在高质量医学期(qī)刊(kān)上搜索学术文章。”

    米特尔施塔特声称,改变观念(niàn)也很重要,“如果我(wǒ)们能摆脱所谓(大语(yǔ)言模(mó)型)善于回答事实(shí)性(xìng)问题、或者它们至少会给你一(yī)个可靠答(dá)案的想法,而是(shì)认为它们有(yǒu)助于(yú)为你提(tí)供更多相关(guān)的信息,那就(jiù)太好了。”

    但荷(hé)兰乌得勒支大学法学(xué)院(yuàn)副教授卡塔(tǎ)琳娜·戈安塔表示,这些研究(jiū)人(rén)员过于关注技术,因此对(duì)公(gōng)共话语中长期存在的谎言问题关注不(bú)够。“在(zài)这种背景下,仅将矛头指(zhǐ)向大语言模型会制造一种(zhǒng)假象,即(jí)人类非常勤(qín)奋细(xì)致,永远不(bú)会犯此类错误。问问你遇到的任何(hé)法(fǎ)官,他们都(dōu)遇到过(guò)律(lǜ)师玩忽职守的可怕经历,反之亦然——这并非一个机器的问题。”(作者克里(lǐ)斯·斯托(tuō)克尔-沃克,王会聪译(yì))

    关键词: 人工智能,AI




    AI人工智(zhì)能网声明:

    凡资讯来源注明为其他媒(méi)体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不(bú)代表本网站对其真实性负(fù)责。您若对(duì)该文章内(nèi)容(róng)有任何疑问或质疑,请立即与网站(www.baise.shiyan.bynr.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站(zhàn)将迅速给您回应并做处理。


    联系电话:021-31666777   新闻、技术文(wén)章(zhāng)投(tóu)稿QQ:3267146135   投稿邮箱:syy@gongboshi.com

    精选资讯更多

    相关资讯更多(duō)

    热门搜(sōu)索

    工博士(shì)人工智能网
    博鱼官方网页版-博鱼(中国)
    扫描二(èr)维码关注微信
    扫码反馈

    扫一扫,反馈当前页面(miàn)

    咨询反馈
    扫码(mǎ)关注

    微信公众号

    返回顶(dǐng)部

    博鱼官方网页版-博鱼(中国)

    博鱼官方网页版-博鱼(中国)