博鱼官方网页版-博鱼(中国)




  1. 咨询热线:021-80392549

    博鱼官方网页版-博鱼(中国) QQ在线 博鱼官方网页版-博鱼(中国) 企业微信
    博鱼官方网页版-博鱼(中国)
    博鱼官方网页版-博鱼(中国) 资(zī)讯 > 人工智能 > 正文

    当AI有了“自由意志(zhì)”

    2020/12/14脑极体376

    在人工智(zhì)能(néng)呈现一番欣欣向荣的景象之时,这项(xiàng)技术的问题和(hé)潜在(zài)威胁也(yě)正在显现。是(shì)时候认真(zhēn)探讨一下AI技(jì)术的“价值(zhí)观”问题了。

    很多人最(zuì)近一定(dìng)注意(yì)到,有(yǒu)关AI的负面新闻频频上头条,而且还带有很强(qiáng)的魔幻色(sè)彩。

    11月20号,韩国13岁的(de)天才围(wéi)棋少女(nǚ)金(jīn)恩持承认了她在9月底的一场在线(xiàn)围棋比赛中(zhōng)作(zuò)弊(bì),使用(yòng)了AI推荐(jiàn)的棋谱,约等于断(duàn)送(sòng)了自己的职业(yè)生涯。11月27日,伊朗核武器专家(jiā)法赫里扎遭到一挺由(yóu)AI控制(zhì)的自动(dòng)机(jī)枪的袭击而身亡,这意味着(zhe)精准的人脸识别技术作为AI武器已经参与(yǔ)到(dào)人间(jiān)的杀戮当中。

    说回国内,前一(yī)段时(shí)间(jiān)有(yǒu)人带头(tóu)盔去售楼处看房,就是为避免被房地产商进(jìn)行(háng)精(jīng)准的(de)人(rén)脸识别(bié)而被,当做“熟客”来“宰杀”,人脸识(shí)别滥用问题已摆在我(wǒ)们面前。更荒诞的是,最近曝出一个房(fáng)产中介(jiè)就利用政府机构的在线服务的(de)流程流(liú)动,轻而易(yì)举地让售房者在不(bú)知情的状况下(xià)通(tōng)过人脸识别系统把房子过户给了(le)买(mǎi)家,自己套取(qǔ)了交易(yì)款。原本为民提供便(biàn)利的(de)AI服务成了(le)别有用(yòng)心者(zhě)的帮凶。

    “杀人者人(rén)也(yě),非刀也(yě)”,这是我们为“工(gōng)具(jù)无道德价(jià)值”做(zuò)辩(biàn)护的古老理(lǐ)由(yóu),也是人类确证自己(jǐ)具有独一(yī)无二的道德价值的傲娇说(shuō)辞。同样这一理由似乎也可以为(wéi)上面这些AI的负(fù)面案例做解释(shì),可以说这里的AI技术也都只是人类应用的(de)工具(jù),真正始作俑者的还(hái)是人类。

    这(zhè)样说(shuō)似(sì)乎无可厚非,正如一(yī)切技(jì)术的发明带给(gěi)人类(lèi)巨大福祉的同时也可能带来可能的灾祸一样,反之(zhī)亦然。比(bǐ)如诺贝尔发明的炸(zhà)药可以开(kāi)矿(kuàng)搬山也(yě)可以投入战(zhàn)场屠戮生灵(líng),核技术可以(yǐ)用来制造(zào)原子(zǐ)弹毁天灭地也(yě)可(kě)以用(yòng)来做(zuò)核电(diàn)站造福(fú)大众。理(lǐ)性乐观派总是相信人类可以(yǐ)通(tōng)过技术进(jìn)步创造一个美(měi)丽新世界,并克服技术产生的种种负面效应。

    不过(guò),我们需要(yào)注意的是,这一次人工智(zhì)能技术革命的(de)不同之处在于它将真正重(chóng)塑人类。以往的任(rèn)何(hé)一场技术革命只是增强了(le)人类在体力、脑力等(děng)方面的专项能(néng)力,但(dàn)这一次AI将直(zhí)接抵(dǐ)达人的核心本质——那个所谓撑起人尊严和价值的“自由意志”。

    大多(duō)数人会将这种宏大议题当作杞人忧天的无稽之谈,因为“狼来了”的(de)故(gù)事人们已经(jīng)听过多次。很(hěn)多大人物对于人工智能威胁人类地位的(de)告诫,也有种“口嫌(xián)体(tǐ)正直”的(de)意味,无不在自己(jǐ)的领域内推(tuī)动AI技术的进化和(hé)使用(yòng)。

    但(dàn)是作为人类社会基石(shí)的(de)“自由意志”本身已经(jīng)从脑神经科学和社会学上被(bèi)严重挑战,而人(rén)工智能在模拟(nǐ)和指导人类决策的能力又在大幅提升,这样我们就将接(jiē)近这个人类命运改变的交汇点:人的自由被还原为(wéi)一种可计算的生理(lǐ)机(jī)制(zhì),AI的(de)计算能力又超过人类(lèi)的计算能力(lì)。

    这(zhè)时,我们也就如(rú)同温水中的青(qīng)蛙,只能黯然接(jiē)受(shòu)“被煮(zhǔ)熟”的命(mìng)运安(ān)排。幸而在AI技术正在(zài)日(rì)渐暴露出这些(xiē)无(wú)伤大雅的问(wèn)题之时,我们仍然要有一种对AI的警惕。

    那就是AI拥(yōng)有“自由意志”之(zhī)时(shí),可以做到价值中(zhōng)立吗(ma)?

    技(jì)术的价值中立难成(chéng)立,AI亦然

    在关于“技(jì)术是否价值(zhí)中立”的探讨中(zhōng),现实的人们大多(duō)会倾向(xiàng)于“技术中立”的观点。

    我们通常认为一项技术的道德价值在于(yú)使用它的(de)人,比(bǐ)如决(jué)定一把刀是用来烹饪还是用来行凶的关键是手握(wò)这把刀(dāo)的(de)那(nà)个人(rén)的想法;而一(yī)项技术的价值(zhí)大小也不在于它自(zì)身而在于使用它的人的(de)用途,比如在电影(yǐng)《上帝也疯(fēng)狂》里,非洲原始部落的人(rén)们获得(dé)了一个完整(zhěng)的可乐玻璃瓶,这(zhè)个在现代社会平平(píng)无奇的消(xiāo)费品,从一开始被当做无所(suǒ)不能(néng)的神物(wù)到后(hòu)面变(biàn)成引发族群(qún)纷争的魔鬼。这个可乐瓶的价值在(zài)土(tǔ)著人手里就经历了天壤(rǎng)之别的(de)变化。

    这(zhè)一假设的好处就(jiù)是维护了人(rén)的尊严,选择什么样的(de)技术用来做什么样的事(shì)情,都是我们自己的选择,最终(zhōng)的后果都要由我们来负责。

    但实际上真的(de)如(rú)此吗(ma)?

    从最初的人(rén)类开始掌握(wò)生火和放(fàng)火这(zhè)一项最初级技(jì)术(shù)的时候,一个(gè)部落(luò)中的女(nǚ)性就能释放(fàng)出超出她体力数以万(wàn)倍的能量,因为一把火就能(néng)烧出(chū)一大片森林,他(tā)们(men)就能收获这片(piàn)土(tǔ)地里没有来得及逃(táo)跑的生灵的肉类,后面还可以开垦出一片又一片的农田(tián)。想想(xiǎng)今(jīn)天的亚马逊雨林,在全球(qiú)化的消费贸(mào)易网络中,被巴西农民几乎烧毁殆(dài)尽来(lái)该种粮食作物。火本身是无目的的,但是使用(yòng)火的人是知晓(xiǎo)火的特性和威力,也能控制火(huǒ)的范围(wéi)和用途。人类(lèi)之火,与天(tiān)然之火(huǒ)的不同之处在于,火(huǒ)本身(shēn)已(yǐ)经包含了人类的(de)意(yì)志和目的。

    可以想见,人类此后发明的任何一个工具(jù)或技术都或多(duō)或(huò)少(shǎo)包含(hán)着发明者本身(shēn)的目的。一把锋利的石刀既(jì)带(dài)有(yǒu)了切割了功(gōng)用,也带(dài)有了(le)杀戮(lù)的能力(lì),而一(yī)把枪发(fā)明出(chū)来(lái),自然就有着更高效地杀戮的功效在(zài)里面,不管(guǎn)买它的人(rén)是用来(lái)防身还是用来害人,都是(shì)深知(zhī)这一点的。一项技术的发明总是有原因的,而原(yuán)因背后一定是(shì)有目的方向性的,暗含了其主观价值。

    随着人类的(de)技术工具越来越复(fù)杂和高级,技术(shù)的目的性对(duì)于使用者的影响也就越大。而且我(wǒ)们已经越发习惯这些技术,就(jiù)如同我们须臾离不(bú)开电池(chí)和网络一样,这些技术已(yǐ)经在潜移默化(huà)地改变着我们(men)的选择(zé)和判(pàn)断。当我(wǒ)们(men)以为自己的选择是自由选择的(de)时候(hòu),其(qí)实大多(duō)数都是被工具所(suǒ)训练和改变了的。

    最典(diǎn)型的现代技术莫过于各种互联网应用和游戏,以短视频最(zuì)为典型。依托沉浸式展示(shì)、无限下滑换页和偏好推(tuī)荐算法(fǎ),短视频成为手机用户的“杀时间”神器,很多人不(bú)知不觉(jiào)就会在其中花费数十分钟(zhōng)时间。如果稍加反省(shěng),我(wǒ)们(men)就会发现这套推荐技(jì)术当中所包含的(de)利用人性(xìng)弱点和上(shàng)瘾机制来获取用户(hù)时间的价值倾向。

    虽然我们清楚这些公司和他们的聪明无比的(de)工程师未必(bì)有操纵人心(xīn)的恶意,而(ér)只是有(yǒu)取得(dé)商业成(chéng)功的动(dòng)机,就会不断地加入操(cāo)纵人心的技术(shù)。而这一(yī)次(cì),工(gōng)程师们有了一个最好的助手,那就是人工智能(néng)。

    AI算法的最初目(mù)标一定(dìng)是体(tǐ)现了人类的某一目(mù)的,比如在对抗学习中拿到(dào)最(zuì)高的分数、在图像识别中得(dé)到最高的识别率,在偏好推荐上要(yào)不(bú)断满足用户喜好,找到尽可能多的(de)相似内容。人工(gōng)智能不仅在某些方面表现不错(cuò),而且还有了赶超人类决策的计算能力。

    从“不够好”的AI到“被用坏”的AI

    AI威胁(xié)论(lùn),很多(duō)人已经讲了(le)很多(duō)次,但我们这里并不(bú)是再重复这种大众(zhòng)所理解(jiě)的“AI统治人类”“AI取代人类工作”的观点。因为这种观点(diǎn)也(yě)仿(fǎng)佛再说AI会成为一个独立于人的新(xīn)的物种存在,而如(rú)今来看,这(zhè)样的AI不知要到猴年(nián)马月才实(shí)现,或者根本无(wú)法实现。

    我(wǒ)们这里强调的是,不同于(yú)以往任(rèn)何力学的、化学的、生物(wù)的技术(shù),仅仅提高人类的局(jú)部性(xìng)的能力(lì),这一次AI技术这次要替代的是人的感知、判断和决策能力,是(shì)对人(rén)的理性行为的一种“复刻(kè)”。

    AI技术的这种“非中立”特性难免(miǎn)会导致以下结(jié)果:

    一、AI算法在数据训练中由于模型设计(jì)和数据(jù)样本不足等问题会难以避免地(dì)出现(xiàn)偏见。

    比如,2018年的一则报道中(zhōng),亚马逊的AI招聘(pìn)系统被(bèi)指出系统性地(dì)歧视女性,在发现简历中出(chū)现“女性(xìng)”字样(yàng)就会(huì)降低应聘者的分数,而且还被(bèi)发现(xiàn),标注某两所女子大学(xué)的简历(lì)也会在排序上被降级。而人(rén)工智能的(de)这一权重(chóng)决策正是(shì)来自于学(xué)习了亚马逊此前10年的简历数据。显然,这十年中,大部分被录用的候选人都是男性,人类HR在招募技术岗位上(shàng)的偏好也教会了人工智能采(cǎi)用同样的策略。

    而在更常见(jiàn)的人(rén)脸(liǎn)识别(bié)领域,则出现(xiàn)了明显的(de)性别和种族歧(qí)视的算法偏(piān)见。根据(jù)美国NIST(国家标(biāo)准及(jí)技术研究(jiū)院)在2019年(nián)12月(yuè)的(de)一份报(bào)告,在(zài)美国人脸识别系统(tǒng)中(zhōng),黑人的人(rén)脸识别错(cuò)误(wù)率是(shì)白(bái)种人(rén)的100倍(bèi),与黄(huáng)种(zhǒng)人相比(bǐ),黑人人脸的识别错误率(lǜ)也是前者的10倍,而在执法机关的人脸图(tú)片库中,识别(bié)错误率最高的是美国(guó)原住民。另(lìng)外,女性和老人(rén)的(de)脸部也更难以识别。这一研究的数据来源是美国签(qiān)证申请和过境数据(jù)库中的1800万张人脸照片,并测(cè)试了189种人脸(liǎn)识别(bié)算法,研究结果代(dài)表(biǎo)了绝大部分商(shāng)业应(yīng)用(yòng)算法的结果(guǒ)。

    今年上映的(de)一部《编码(mǎ)偏见》的流媒体影(yǐng)片(piàn)正揭露(lù)了这(zhè)一问(wèn)题(tí),人工智能(néng)正在接管着关于人们的信息、安(ān)全、机会甚至自由等权力的时候,如果人们(men)不改(gǎi)正这些算法中存在的偏(piān)见和歧视,那么AI技术会必然(rán)创造一个更加糟糕的世界,比如(rú)被错误识别并(bìng)逮捕的少数族裔青年、被算法(fǎ)判断为能力不足的女性员工,被垃圾信息所包围的少年。

    当然,这还只是AI技术不(bú)够(gòu)好的(de)一种表现。很(hěn)多人觉得我们可以不断调整算法,增(zēng)大数据样本就可以(yǐ)解决(jué)这些低级错误、算法歧视等问(wèn)题。假(jiǎ)如偏见可以消(xiāo)除(chú)、算法(fǎ)可以优化,我们(men)又将迎(yíng)来一个怎样的局面呢?

    二、AI技术很可能会由于数(shù)据的规模聚集和技(jì)术(shù)竞赛的排他性(xìng)中,掌握(wò)在少数技术公司和政府手中,帮助拥有技(jì)术特权的人群和(hé)组织获得难以撼动(dòng)的权力和(hé)财富,从而巩固这一(yī)趋势。

    我们不能说(shuō)AI技术一定(dìng)会(huì)助长极权和垄断,但是我(wǒ)们正在(zài)看到这样的苗头出现。

    普通大众不(bú)仅(jǐn)通过在互联网上的各(gè)种操作交出了自(zì)己的习(xí)惯偏好和消费数据,而且现在还在通(tōng)过可穿戴设备(bèi)等信息来获取我们(men)的生理指标数据。如果(guǒ)任何(hé)一个(gè)AI算法系统能够同(tóng)时拥有(yǒu)这两种(zhǒng)数据,并且对其(qí)建立起相对(duì)应的相关(guān)性(xìng),那么,这(zhè)一系统(tǒng)将真正全面获得操纵(zòng)人心的能力。

    正由于我们人类的任何(hé)决策(cè)可以转化为(wéi)各(gè)种生理、心理和行为的各种数据(jù),而我们又想通过(guò)AI技术(shù)来洞悉这一切背后的因果链条(tiáo),那么(me)AI将有极大地可能完(wán)成(chéng)人类的这一使命,如(rú)果往(wǎng)好处走,AI将代替(tì)人类的智力释放出前所未有的生产力,如果往坏处走(zǒu),AI技术也将产生(shēng)无法想象的破(pò)坏力。

    比(bǐ)如(rú),在核冬天的(de)威慑之后,AI武器的(de)发展将使得精准杀戮成为可能(néng),虽然(rán)在一定意义上可以避免(miǎn)大规模的(de)热武器冲(chōng)突,但(dàn)是(shì)每个国家都将在这种无孔不入(rù)的AI武器或杀手机器人的威胁下(xià)产(chǎn)生(shēng)十足(zú)的(de)敌意。如果这些AI武器一旦被极(jí)端组织掌握,更有可能成为(wéi)挑(tiāo)起(qǐ)事端的大(dà)杀(shā)器。再比如更有可(kě)能的一(yī)个(gè)趋势(shì)是,AI算法只是代表了少数特权阶层的(de)意志,而大部分人沦为供AI进化的数据源。

    尽管来说,AI直接统治人类(lèi)既无可能,但AI被(bèi)人类用坏(huài),成为塑造人类不平等的帮凶是极有可能的。

    现在,我们更重要的是,放(fàng)弃(qì)对AI技术客观中立性的幻想,也要警惕AI算法对于我们(men)决策的强(qiáng)大操纵(zòng)力,同时又(yòu)得致(zhì)力于推动人工智能的普惠,才(cái)是接下来要做的事情。

    对AI的(de)自(zì)由意志保留(liú)拒绝(jué)的权利

    我们(men)这里只是(shì)指(zhǐ)明了(le)一个问(wèn)题:人工智(zhì)能是存在价值观(guān)的,其(qí)价值观的来源并非来自于突然的(de)“自我觉醒(xǐng)”,而是从人这里继承了相应的价值(zhí)观,“复刻(kè)”了人的所谓“自由意志”。

    当AI算法(fǎ)不够强(qiáng)大的时候,其可(kě)能(néng)继承(chéng)人类的认知错误和偏见,但当(dāng)AI算法足(zú)够强大(dà)的(de)时(shí)候(hòu),其也并不(bú)会变得“客观中立”,而(ér)是(shì)体现了(le)人类工具理性推向(xiàng)极(jí)致的价值(zhí)观,那(nà)就是更(gèng)集中的(de)权(quán)力、更多的财富、不断自我强化和(hé)升级。

    这一(yī)价值观反(fǎn)作用到普(pǔ)通(tōng)的人类个体身(shēn)上,可能有两个(gè)结果,一种是与AI算法协同进化,在智识上甚至生理上不断升级自己,成为掌控AI的发展(zhǎn)趋向的超(chāo)级人类;一(yī)种是无法理解AI技(jì)术运行逻辑(jí),也(yě)没有办法参(cān)与自主(zhǔ)决策的大众,将自己的生活决策交(jiāo)给算法。

    因为人的生物学(xué)的进化速度实在难以赶上AI计算能力的增长,人类的(de)知识(shí)只(zhī)能(néng)以线性循(xún)环(huán)的方式一代又一代传授(shòu),而(ér)AI则是以指数级方式累计增长(zhǎng),这就决定了大多(duō)数人只能交付出自己的决策机制,而由AI来判断我们(men)的(de)各种想法的成功概(gài)率。

    而在今(jīn)天,这一问题已以种很隐蔽的方式呈现着。正(zhèng)如很(hěn)多人认为自己要听从(cóng)自己内(nèi)心的声音,但是我们却并(bìng)不(bú)知(zhī)道这些(xiē)内心的(de)需求哪些是我(wǒ)们的“自由意志”想要的,哪(nǎ)些是(shì)被各种(zhǒng)价值体(tǐ)系(xì)所塑造的。而(ér)我们知道AI算(suàn)法已经(jīng)开始从(cóng)每一个广告推(tuī)荐、每(měi)一个(gè)内容筛选、每一次自拍美颜、每一(yī)次你的行(háng)为追(zhuī)踪下,就已经开始为你进行需求的植入了(le)。

    在人工智(zhì)能狂(kuáng)飙突进的这几年当(dāng)中,我们其实已经过分站在“AI将造福人类(lèi)”的宏大(dà)叙事当中,毕竟我们(men)对于这一新型技术产业寄予了(le)太多的希望。但是我们看到现在针对个人隐私领域上马(mǎ)的AI应用(yòng),正在竭尽所能地掌握人们的全方位数(shù)据,但其实我们并(bìng)未对(duì)这一趋势做好准(zhǔn)备。



    最近我们也注意到(dào),由于一(yī)些(xiē)行业和场景中人(rén)脸识别技(jì)术被大量滥用,一些地方的相关部(bù)门开始推出整治规范,要求(qiú)拆除这些AI设备。未(wèi)来,这场关于人(rén)工智(zhì)能的应用边界(jiè)博弈的拉锯(jù)战还将一直(zhí)持续下去。

    但未来的长期博弈中,我们哪怕牺牲(shēng)一点便利性,也要(yào)在让度自己(jǐ)的选择权,交给人(rén)工智能来处(chù)理的时候,保持(chí)足够的冷静,同时对AI有(yǒu)拥(yōng)有“Say No”的力量。

    关键(jiàn)词:




    AI人工智能网声明:

    凡资讯来源注明(míng)为其他媒体来源的(de)信息,均为转载自其他(tā)媒体,并不代(dài)表本网站赞同其观点,也(yě)不代表本网站对其(qí)真实性负责。您若对该文章内容有任何疑(yí)问或(huò)质疑,请立即与网站(www.baise.shiyan.bynr.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站将(jiāng)迅速给您回应并做处理。


    联(lián)系电话(huà):021-31666777   新闻、技术文章投稿QQ:3267146135   投稿邮箱(xiāng):syy@gongboshi.com

    精选资讯更多(duō)

    相关资讯(xùn)更多

    热门搜索

    工博士人工智能网
    博鱼官方网页版-博鱼(中国)
    扫描(miáo)二维码关注微信
    扫码反(fǎn)馈

    扫一扫,反馈当前页面

    咨询反馈
    扫码关注(zhù)

    微信(xìn)公众号(hào)

    返回顶部(bù)

    博鱼官方网页版-博鱼(中国)

    博鱼官方网页版-博鱼(中国)