首页 > AI资讯 > 最新资讯 > GPT与数字鸿沟3.0

GPT与数字鸿沟3.0

新火种    2024-01-04

来源:法治周末

智道

栏目主持人:於兴中

“技术是推动最不发达国家实现可持续发展的重要力量,但同时必须正视技术带来的危险,让技术成为缩小而不是加深鸿沟的工具”

□ 李亚娟

随着美国OpenAI公司研发的人工智能(AI)模型ChatGPT(GPT意为生成式预训练转换器)横空出世,生成式人工智能狂潮席卷科技产业,围绕大模型的技术军备竞赛热火朝天。

今年3月,OpenAI与宾夕法尼亚大学合作发表的论文提出“约80%的美国劳动力至少有10%的工作任务可能会受到GPT引入的影响,而约19%的工人可能会看到至少50%的任务受到影响。这种影响涵盖了所有薪资水平,高收入职位更可能用到GPT。”

计算机和网络技术的迅速发展产生了数字鸿沟的问题。数字鸿沟,又称信息鸿沟,通常指在全球数字化进程中,不同国家、地区、行业、人群之间由于对信息通信技术获得、应用程度的不同以及创新能力的差别造成的信息落差、知识分隔和贫富分化,是传统的国际和国内不平等、社会分层在数字化时代的延续。

数字鸿沟概念的提出主要是由于计算机和网络技术的出现以及信息革命的影响,导致那些拥有计算机和其他数字技术的人比没有这些技术的人更具竞争力和优势。

随着计算机与网络技术的更新迭代,数字鸿沟的内涵也在不断变化。数字鸿沟1.0指数字设施与数字技术的获取或接入缺乏导致的差距。数字鸿沟2.0主要表现为人们对于新型数字技术应用的不平等现象,即在数字设施与数字技术接入无障碍后,对数字技术的应用能力依然存在差距。此时,缩小数字鸿沟的努力体现为提升民众数字素养。而以GPT等大模型主导的生成式人工智能等新兴技术,会进一步产生新的技术差距与应用不平等,这是数字鸿沟3.0的表现形式。

研发上的不均等

大模型的研发与使用需要大量的算力和数据,具备大数据资源和高算力设备的机构和公司更容易使用人工智能技术,而这些机构通常集中于发达国家和地区。GPT等大模型对算力、算法和数据都有强依赖。GPT-4总共包含了1.8万亿参数,一次的训练成本为6300万美元,非百亿美金公司很难持续跟进。

没有足够财富和能力支撑GPU(图形处理器)算力运行而产生的差距可以被视为GPT鸿沟的一种形式。由于GPT需要大量的算力和数据来进行训练和运行,只有那些有足够财富和能力的人、企业或国家才能够投入足够的资金用于GPU算力的运行。这也可能使得他们能够更快地发展和推广GPT技术,从而获得更多的创新和竞争优势,而那些缺乏资金或能力的人、企业或国家可能无法跟上GPT等大模型的发展步伐,从而落后于其他人、企业或国家。

应用存在不平等

数字化加速后,人们使用数字技术的条件和机会出现了明显的差异。某些地区或群体可能无法获得高质量的互联网连接,无法有效访问和使用GPT技术。GPT等人工智能技术的应用需要一定的经济投入,包括购买软硬件、付费使用API(应用程序编程接口)等,经济条件较差的地区或个人可能受限于经济能力而无缘使用这一技术。由于教育水平、专业背景等原因,某些人群可能无法充分理解和掌握GPT等技术的使用方法,比如,ChatGPT应用后产生了提示工程师(Prompt Engineer)这一岗位。Prompt是一种重要的工具,能够与GPT交互提问来提高生成结果的准确性、控制生成内容、帮助模型理解任务。不具备Prompt能力的群体和公司在应用GPT等大模型时也会因此影响输出结果,从而产生技术应用的差距。

GPT等大模型技术可能会大量应用于发达地区或富裕阶层。也就是说掌握相应知识和技能的人,才能充分利用这种技术。而欠发达地区或较贫困的群体,因为培训和教育资源有限,则可能无法享受到这些技术带来的便利,或者说无法从这场技术革命中受益,从而加大地区和社会阶层的不平衡。例如,智能家居和自动驾驶等高新技术的应用,对于一些人来说是科技的福祉,但对于经济欠发达、数字技术普及水平不高的地区来说,对他们的生活生产则不会有什么影响。

治理与安全领域的不平等

在数字时代,数字技术的使用不仅涉及个人的权益,也涉及社会的稳定和安全,因此数字技术的治理和安全问题成了一个相当严峻的问题。在数字技术治理和安全问题上,发达国家的治理能力往往比发展中国家强,数字技术治理不平等问题因此进一步显现。

人工智能技术的前景和潜在威胁是世界各国关注的共同问题。GPT等大模型技术一经推出即引发热议,生成式人工智能技术意味着人工智能发展进入新的阶段。

3月31日,联合国教科文组织总干事阿祖莱呼吁各国立即执行《人工智能伦理问题建议书》。这个规范性的全球框架由教科文组织193个会员国一致通过。

5月16日,OpenAI创始人兼首席执行官山姆·阿尔特曼出席了美国国会召开的主题为“AI监管:人工智能的规则”的听证会。他建议美国政府加强对大型AI模型研发的监管。

英国牛津大学人工智能伦理研究所的高级研究员伊丽莎白·雷尼尔斯向媒体表示:“AI的发展可能放大了自动化决策的规模,这些决策可能是有偏见的、歧视性的、排他性的或其他不公平的,难以理解但却不容争议。”

欧盟人工智能监管法案的制定工作已经持续数年。6月14日,欧盟议会通过该法案草案。更新后的草案专门针对ChatGPT等生成式人工智能工具补充了新的规定,将 ChatGPT和类似的生成式AI与高风险系统置于同一级别,并引入了旨在监管“通用人工智能”的新措施。

在中国,7月10日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》。该办法坚持发展和安全并重、促进创新和依法治理相结合的原则,对生成式人工智能服务实行包容审慎和分类分级监管。

大模型通常会使用庞大的数据集进行训练,而这些数据集往往会反映出现实世界中的不平等现象。如果这些模型被用于社会决策、执法或安全监控,它们可能会强化现有的不公平和不平等。例如,如果模型主要基于特定群体的数据进行训练,它可能无法准确地理解其他群体的需求和问题,从而在决策中对这些群体不公平。

大模型的研发始于科技发达的国家,但却会应用于所有互联网覆盖的地区。大数据技术、训练数据来源、数字基础设施、经济差距和监管框架等因素在各个国家和地区之间存在差异,大模型的开发和应用需要庞大的计算和资源,这导致只有具备足够的资源和技术能力的组织或个人才能从中受益。这种技术壁垒可能在社会治理和安全领域中导致不平等,使得一些群体无法获得公平的机会和资源。此外发达国家有更多监管大模型及其应用的工具与更强的监管能力,在监管缺位的国家和地区,大模型应用的结果可能延续并强化现有的不平等,并对某些群体或地区造成不利影响。

在教育领域产生的不平等

在教育领域,GPT的到来称得上一场“地震”。在OpenAI发布GPT-4同日,教育非营利组织可汗学院即推出由GPT-4驱动的AI学习平台Khanmigo,学习者只要点开网页右下角的机器人气泡,就会收获一个循循善诱的辅导教师——它不仅能发现学生的错误,还能引导学生解释、反思推理的过程。可汗学院创始人萨尔曼·可汗说,“它能够推测出学生心中可能存在的误解,这已经称得上一名优秀的导师了”。

同时,因为ChatGPT强大的内容生产力,许多学生用它来完成作业和论文,进而产生关于学术不端的争议。当教育者还在为“ChatGPT是否会破坏我们所认识的教育”各执一词时,紧随其后面世的GPT-4的大量相关应用,适用于备课、自学、练习、写作及英语学习等教育场景中,再度扩展了GPT的影响边界。如果正确使用GPT-4,人们将实现“利用AI带来教育领域最大正面变革”的可能。

但是并非所有地区和所有学生都有机会和资源能够享受到大模型技术对教育的革命性变革。只有经济实力强大的学校或机构能够使用和受益于大模型技术,而较为贫困或资源有限的地区或社群可能无法获得同样的机会、设施、技术支持、师资和培训,这可能进一步加剧教育中的不平等。

语种与文化的不平等

作为自然语言模型,GPT-4文本数据的训练源限制在英语语境下。因为英语在全球交流与学术中的地位,其他语言的文本则会被忽略。大模型的训练需要万亿文本数据,这也决定了即便小语种文本被用作训练数据,也会因为数据量不够大而不能产生预期的训练结果。预训练数据的英语语种决定了大模型及其应用天生存在文化上的不平等,因为模型对其他语种和文化的理解和生成能力受到限制。

比如,应用于翻译场景时,由于未经过其他语种的训练,GPT-4可能在翻译非英语文本时存在偏差,翻译结果可能不准确。又比如,在GPT-4生成文本时可能存在对某些文化的误解或刻板印象,因为其训练数据未包含足够多的多样化文化背景。另外,因为GPT-4对英语文本的处理有偏好,所以对其他语种的表达方式和语法结构可能存在固有偏见并对其他语种产生不利结果。

即便OpenAI计划提高GPT-4模型的语言和文化的多样性与平等性,使用多样化的语种和文化背景的训练数据,也会因为部分语种的数据文本规模有限而不能实现。因此需要采取措施来纠正模型中的语种与文化偏见,并进行更全面和平衡的评估与测试。

今年,联合国秘书长安东尼奥·古特雷斯在为5月17日“世界电信和信息社会日”发表的视频致辞中强调:“技术是推动最不发达国家实现可持续发展的重要力量,但同时必须正视技术带来的危险,让技术成为缩小而不是加深鸿沟的工具。”解决GPT等大模型鸿沟及其带来的数字不平等需要社会各界的共同努力,需要通过开放共享、提供基础设施、培训和教育、政府支持、国际合作、公正透明和有效监管等措施减轻不平等问题,确保大模型应用对各国和地区更加公平和平等。

(作者系西北工业大学公共政策与管理学院法学系副教授)

责编:尹丽

Tags:
相关推荐
免责声明
本文所包含的观点仅代表作者个人看法,不代表新火种的观点。在新火种上获取的所有信息均不应被视为投资建议。新火种对本文可能提及或链接的任何项目不表示认可。 交易和投资涉及高风险,读者在采取与本文内容相关的任何行动之前,请务必进行充分的尽职调查。最终的决策应该基于您自己的独立判断。新火种不对因依赖本文观点而产生的任何金钱损失负任何责任。