题目看似很大,也只是闲聊。难道不是一个特别有趣的问题么?
GPT是最近最热的话题。国外有不断迭代的ChatGPT(已经到了GPT-4)以及其他平台(例如谷歌)推出的竞品;国内也有许多机构参与进来。日前百度推出了文心一言,又引发许多的讨论。
有空的时候,我也玩玩ChatGPT,主要用于信息收集,只在一些我认为AI应当可以提供相对准确、可靠答案的领域进行有针对性的提问。这个过程很有趣:我以为,人类与AI的互动质量可以不断提高。AI在努力学习人类的表达方式和习惯,人类也可以反向“学习”和适应AI的表达方式。人类(指平均教育水平的普通人)的表达往往缺乏精确性、逻辑性、严谨性、严密性,有多重指向与含义,并且带有感性与情绪,可从不同的角度进行分析、诠释、解读;AI相反,会用精确、严密、充满逻辑的语言表达理性概念。这里,不同的语言又有很多的天然差异(譬如汉语 vs 英、法、德等印欧语)。双方在做的,其实是“相向而行”
——AI要学习适应人类的含糊、多义、感性,寻找合适的应对方式;人类也要反向适应AI的逻辑和理性。
与AI对话因此是有趣的,以信息收集和分析问题为目的的对话里,AI的反馈质量颇取决于人类使用者的提问方式:提问越精确,越能避免产生歧义,越富有逻辑性,越有颗粒度和针对性,越有具体指向,越注意排除AI的盲点(即感性、主观性等),就越能获得相对准确和理想的答案。
如果有心,也可将与AI的对话变为人类自身学习的过程。这和人类学习不同民族的语言一样:学习了不同的语言,能够帮助加深对自己文化的理解,也加深对整个人类社会、文化、历史的理解。(当然了,这是从理想角度来说的,对于大多数人来说,与AI对话更多的只是单纯的信息收集,甚至可能养成思维惰性)。
GPT毕竟要基于人类的社会、知识、文本、数据、思想之上,同时又由于其学习与训练依赖数据、文本及与特定人类群体的互动,因此其价值取向很难避免产生一定的倾斜或“偏见”,即偏向现代社会里受过高等教育、有知识话语权、影响力、权威、对数据及文本的产生有重大影响的群体。
在该系列文章里,笔者旨在通过测试说明,当前版本的ChatGPT(包括GPT-4)的政治取向,是牢牢地站在西方左翼/自由派/“白左”一边的,与美国主流的当权政治有较大距离,但可能代表美国社会及政治的未来,又因为它是积极的内容输出者,可以影响及塑造美国未来的社会及政治。
在GPT\AGI形成的早年,这种偏见可能只是无意的结果,而不是有意的(intended)结果;未来,GPT/AGI则有可能是为政治和意识形态服务的,系统性地偏向特定的政治、文化、伦理及价值群体。
未来世界,谁掌握了GPT的技术资源(包括训练与学习的逻辑)、谁掌握顶流的GPT平台、工具及衍生的聊天机器人,谁就有可能把握并影响整个社会的价值走向。
1.数据科技及AI对西方政治的干预:“1.0版科技——发现及追随人的价值观”
过去几年,特别是2016年英国脱欧公投及美国总统大选后,西方社会就很注意数据科技(及专于此业的数据公司,例如Cambridge Analytica)在选举政治里的作用了。这些公司其实就是昔日民调公司及咨询公司在数据科技年代的升级版。
有了数据科技支持,政客、政党可以被赋能,做到两件事:
第一件事是通过大数据,发现一个社会真实的政治中指、中枢、导向、热点、痛点。这些热点和痛点不仅真实,而且可能还是被禁止、压抑、不能言说的。举个例子,美国在许多领域的“政治正确”——譬如针对性别、移民、种族等话题。有相当比例的选民很厌恶政治正确的,但碍于大的政治空气与氛围,政客和选民都不能言说。数据则不同,看似公正客观,只是将社会真实呈现出来:数据说话,原来有过半的人很讨厌政治正确!此时,谁迎合数据,站出来抨击“政治正确”,谁就能够获得政治支持。
第二件事是向特定人群推送特定信息,强化其固有的政治观念,诱导其积极参与政治。这很大程度依赖对人群本身的了解,这种了解当然也是基于数据的:从互联网上的言论、足迹、朋友圈及关系网到消费习惯等。通过数据捕捉与分析,可以快且准确地勾勒出一个人可能的政治画像,然后对其推送相关的信息。