竞彩体育_3d直播新浪彩票

欢迎访问-竞彩体育_3d直播新浪彩票
当前位置:首页 > 产品中心 > 艾默生GXE系列

数字化的经济背景下重新构想全球南方人工智能劳动力的未来

数字化的经济背景下重新构想全球南方人工智能劳动力的未来

  2025年10月,布鲁金斯学会(Brookings Institution)发布报告《重新构想全球南方数据和AI劳动力的未来》(Reimagining the future of data and AI labor in the Global South)。报告聚焦AI时代的数据工作,涵盖其详细的细节内容、工作环境等基础议题,同时深入探讨数据业务外包引发的问责障碍、数据劳动者剥削现象的应对挑战,以及自动化数据审核对劳动力市场与包容性技术发展的影响等核心问题。启元洞见对报告核心内容做编译整理,为读者全方面了解相关领域现状提供参考。

  人工智能、社会化媒体算法等日常工具,其运行并非仅依靠技术,还需要人工筛选内容,进行标签标注、分类、转录及数据处理等等,这一些数据工作者大多居住在全球南方地区。长期接触仇恨、暴力等不良图文内容,会对数据工作者的心理健康导致非常严重损害,这也推动了相关工会及倡导团体的成立。此类组织同时针对剥削性工作条件与不透明商业行为发起维权与质疑。数据外包领域缺乏全行业统一的监管规范与透明度机制,这一现状已成为包容性数据ECO建设的重要阻碍。

  支撑此类工作的相关平台早在2005年便已问世,近年来,随着数据需求持续攀升,将标签标注等工作外包给全球南方地区工作者的模式,已逐渐具备商业可行性与盈利空间。据世界银行估算,目前有1.5亿至4.3亿的数据工作者,其劳动成果正是尖端技术持续发展的重要基础。

  这些数据工作者往往在“数字血汗工厂”中工作,他们频繁反映工作条件恶劣、遭受剥削,并承受着多种心理上的压力。在非洲、南亚及东南亚地区,工作者一轮班次工作时长达到20小时、筛选1000个案例的情况并不罕见。尽管已成立工会和倡导团体,但业务流程外包(BPO)操作模糊不清、零工平台缺乏监管约束以及数据工作前景不明朗等问题,仍制约着数据工作者群体争取公平透明工作条件的组织化能力。

  带标注数据集是人工智能模型训练的核心基础,此类模型通过学习数据中的潜在模式,可实现内容生成、预测分析或分类识别等功能。数据标注更是平台过滤仇恨、暴力等不良图文内容的关键环节,数据处理全流程中的细微决策,离不开人类对语境的精准把握,这类依赖人工判断的工作,往往外包给全球南方地区的工作者承担。部分内容审核场景下,数据工作者需非间接接触各类不良内容,其工作环境不仅令人身心不适,还存在很明显的剥削属性。颇具讽刺意味的是,他们参与训练的系统,核心目标恰恰是保护普通用户免受同类不良内容的侵扰。而对各类内容的处理与评估,本身也是内容审核系统有效运转的核心构成。

  牛津大学公平工作项目(Oxfordʼs Fairwork project)调查了700多名在数字劳动力平台工作的从业者,围绕工作条件、合同条款、管理模式及权益代表权等方面做评估后发现,15个受评估平台中,没有一个在公平薪酬方面的得分高于“最低标准”。2025年,对哥伦比亚、加纳和肯尼亚的76名工作者开展调查研究的结果为,共发生60起独立的心理伤害事件,包括焦虑、抑郁、易怒、恐慌发作、创伤后应激障碍(PTSD)以及药物依赖等。工作者还提到存在强制无薪加班、无固定薪资和公司拖欠工资的情况。

  数据工作者接触的内容有很多极端不良内容等。例如,一名前内容审核员表示,他每天要浏览多达700条含暴力内容的文本,工作带来的心理上的压力导致他失去了家庭。正因如此,许多工作者出现抑郁、焦虑情绪,甚至产生轻生念头。加纳的合同工反映,审核这些令人不安的内容让他们身处“繁重的工作环境”中。

  数据工作者通常受雇于跨国公司通过第三方外包机构他们往往没明确的渠道去举报劳动权益受损与不公待遇。尽管研究机构和记者已经披露数据工作可能引发心理创伤并存在剥削性劳动条件,但由于缺乏明确的争议解决渠道,一些公司会利用责任主体模糊这一模糊点逃避问责。

  此外,供应链不透明也导致工作者难以知晓其劳动具体支持或构建了哪些系统。此问题在行业内都会存在,不透明的供应链极大地限制了劳动者对抗剥削性劳动实践的能力。

  研究人员、倡导组织与多起诉讼,挑战不合理的劳动实践。例如,内容审核员成立了“非洲内容审核员联盟”(the African Content Moderators Union)和“全球内容审核员贸易联盟”(the Global Trade Union Alliance of Content Moderators),旨在跨国争取公平薪酬与安全工作条件。在肯尼亚,数据工作者发起成立数据标注员协会(the Data Labelers Association),改善工作条件、公平薪酬与心理健康支持而努力。尽管如此,许多人仍面临报复威胁或实质报复。在土耳其,为TikTok提供外包服务的某公司,以员工试图组建工会为由解雇了部分内容审核员。

  研究与倡导组织也致力于记录和揭示有关问题。例如,数据工作者调查(the Data Workers Inquiry)是一项全球性研究计划,旨在助力数据工作者成为倡导者与社区研究员。倡导与互助组织Turkopticon则致力于改善亚马逊土耳其机器人平台劳工的工作条件。此外,数据标注平台Karya,则为传统数据标注提供了符合伦理的替代方案,承诺为印度农村人群提供公平报酬与体面工作机会。

  司法管辖区也发起了相关诉讼和调查。在肯尼亚,法院裁定,某平台因大规模解雇声称遭受剥削与心理健康受损的内容审核员而面临起诉。2022年底,哥伦比亚劳工部对为TikTok提供数据服务的第三方供应商Teleperformance展开调查,原因是该公司让工作者接触令人不适的内容却仅支付日均10美元的报酬。目前,Meta公司在加纳面临诉讼。当地为其业务流程外包公司Majorel工作的审核员称,工作条件极为恶劣,包括居住环境拥挤,并被迫接触涉及谋杀、极端暴力与虐待的内容。尽管这些法律行动取得了一定进展,但这种“打地鼠”式的个案诉讼与调查,无法遏制结构性的劳动侵权问题。

  在劳动者通过法律途径组织起来剥削性劳动实践的同时,企业正致力于开发工具,以逐步优化机器学习算法、识别潜在有害内容,并评估产品在隐私与社会层面的风险。尽管这些工具有望减轻数据工作者的心理负担,但企业不应将自动化内容审核和标注,视为替代建立公平、透明劳动机制的解决方案。

  基于机器学习分类器、哈希技术与关键词过滤器的人工智能辅助内容审核,旨在部分或完全取代人工审核。这类工具已有一定发展历史,例如Google旗下公司推出的“减毒应用程序接口”(Toxicity-Reducing API),可用于协助审核人员识别网络不良信息与骚扰内容。人工智能模型在内容审核中的应用,确实可能减轻人类数据工作者的心理与情感压力,同时因其可大规模部署,可以在一定程度上完成快速、高效的内容处理。然而,自动化内容审核在语境理解、判断准确性及决策透明度方面仍存在隐忧。人类标注数据中若存在偏见,可能被算法大规模放大。基于历史数据集训练的人工智能模型,也难以理解随时间演变的特定文化背景表达,在低资源语言等数据稀缺情境中尤其如此。例如,算法在处理语码混合、新兴语言形式以及为规避审核而产生的“算法语言”等抵抗性表达时,往往表现欠佳。

  恶意行为者还可能利用内容审核系统的语言理解漏洞传播不良内容。一项针对“减毒应用程序接口”的研究表明,自动化内容审核存在较高的误报率。Facebook外泄的文件也显示,算法曾将77%的非暴力阿拉伯语内容误判为“内容”并删除,导致有关战争罪行的报道遭到不当审查。

  当前内容审核决策的透明度与可解释性已显不足且不稳定,而自动化审核可能加剧这一问题——算法无法始终如一地清晰解释其判断逻辑。尽管存在上述局限,在处理涉及有毒、有害内容的低薪数据工作时,某些自动化任务处理与审核形式仍具实用价值。除推动任务全自动化外,人工智能还可用于数据预处理,并为数据工作者对可能引发不适的图像进行模糊化处理等。

  面对上述趋势,各方利益相关者应采取果断行动,提高数据标注工作的透明度,并推广符合道德准则的劳动实践。国际机构应参考国际原则与有关公平劳动的讨论,明确业务流程外包中保护劳动者的权责关系。

  鉴于数据劳动的全球性,跨国合作不可或缺。东南亚国家联盟、非洲联盟、加勒比共同体等区域组织应致力于制定具有约束力的指令,保障数据工作者的权益。部分国家已有所进展,如阿根廷与墨西哥正在拟定零工平台工作指导方针。继续加强国内数字劳动力领域的监管、指导与执法工作。既要落实现有劳动法规,也需针对人工智能数据标注与内容审核类零工工作制定专门法规。此类法规应涵盖为数据标注员提供充分的心理健康支持、符合人体工学的工作环境、充足的带薪休假、集体谈判权保护,以及强制公开工作内容与福利信息等要求。此外,各国还须建立有效保障机制,在进行事实核查与内容审核的同时维护内容完整性。此举有助于遏制极端主义与仇恨内容在数字平台上的蔓延——这一问题已日益严峻。以Facebook为例,该公司仅雇佣少量内容审核员监控阿富汗地区数百万用户内容中的仇恨言论,最终删除比例不足1%,甚至引发了现实世界的暴力事件。若不加大在数字领域的投入,仇恨言论将继续泛滥。在缺乏强制性立法的情况下,科技公司与业务流程外包公司应主动实施全行业统一的劳动者保护标准。包括提供全面的心理健康资源、为接触有害内容的工作者提供岗位调换选项,以及公开工作分配信息等。同时,应为数据工作者开辟明确渠道,使其能够表达关切并参与更广泛的工作讨论,例如举办公众论坛、设立数据工作者监督委员会、开放反馈渠道等。部分公司虽已设立监督委员会,但数据工作者是否真正去参加了尚不明确。必须指出,仅有监督机制而缺乏实际授权或必要工具,难以促成实质改变。例如,尽管一些公司声称为零工工作者提供心理健康资源,但许多工作者反映这些支持远不足以满足需求。数据工作者应在科技公司与外包公司的监督与问责机制中发挥更积极的作用。在向自动化内容审核转型的过程中,企业应重新思考数据工作者的角色定位,而非简单地以AI取代人力。过度依赖人工智能软件进行内容审核,将威胁全球劳动者的生计,尤其在许多经济体依赖在线零工工作的背景下。企业应考虑制定相应策略,使人类工作者在数据任务中充分的发挥其文化智慧。例如,在需要本地语言技能与文化理解的决策环节引入人类判断。这种定制化路径既能结合人工智能辅助审核的效率,又保留了人类在文化理解上的不可替代性,同时有助于构建更符合伦理的人工智能训练与内容审核商业模式。

  数据工作者拥有丰富的经验、独特的视角与专业相关知识,在他们熟悉的语境中,这些能力有助于提升平台内容和AI模型的质量。面对全球各地社区语言的多样性与文化价值的广泛性,那些受困于重复性高、心理负担重的工作,却渴望自身诉求被技术所吸纳的数据工作者,应凭借其本地化知识,在改进AI系统与数字工作环境中发挥关键作用。融合数据工作者人力与文化智慧的协作框架,将有力推动全球AI朝着更具包容性的方向发展。返回搜狐,查看更加多