摘要目的——本文旨在研究加沙持续冲突对其教育系统的破坏性影响,这一现象被称为“教育灭绝”。这项研究记录了对包括学校和大学在内的教育基础设施的系统性破坏,以及针对学生和教育工作者的定点杀害,这些都阻碍了当前和未来接受教育的机会。本文认为,故意拆除加沙教育机构的目的是抹杀巴勒斯坦人的文化、身份和韧性,从而阻碍实现可持续发展目标 4 的任何前景。作者强调,迫切需要国际问责和支持,以重建加沙的教育部门,维护其在社会发展、身份保护和人权方面的作用。设计/方法/方法——本研究论文采用定性设计,使用通过全面审查灰色和学术文献收集的数据来评估持续冲突对加沙教育系统的影响。通过分析财务报告、工作文件和会议摘要,
计算机及其辅助技术的发展不应被抹杀、削弱或削弱。毫无疑问:战争是可恶的。但持续的国家建设和军事行动可以带来惊人的技术进步。战争是技术创新的强大驱动力 (1)。“通用技术”的发展尤其如此,即那些提供全新材料或信息处理方式的技术 (2)。这些技术必然会创造和摧毁新的产业、运动方式、能源创造和信息处理(钢铁而非铁、书籍、发电机、汽车、数字计算机)。在此过程中,这些基础技术将带来新的通信形式、文化活动和众多辅助产业。我们再重复一遍:人工智能是第二次世界大战的产物,数字计算机、微波炉、晶体管收音机和便携式音乐设备、台式电脑和笔记本电脑、手机、iPod、iPad、计算机图形以及成千上万的软件应用程序也是如此。冷战的创造力和对计算机革命的塑造的间接影响理论在当前关于这一主题的学术讨论中盛行:其矛盾的创造力不容否认 (3)。
数据治理仍然是原住民社区持续关注的问题。几乎所有关于原住民的数据方面(从共享的内容到共享的位置)都是外部(即非原住民)控制的,这往往使原住民在主流叙事中不可见。长期以来,这种抹杀导致了对原住民的不准确且通常是刻板的描绘,这些描绘歪曲了原住民的特征,为压迫原住民辩护,并最终剥夺了他们的正义。本文探讨了人工智能(“AI”)是否会成为原住民的“革命”或“新殖民者”——答案最终取决于人工智能开发人员将哪些叙事嵌入到他们的技术中。如果不刻意以土著人民为中心,没有来自土著人民的准确数据,这项新兴技术只会延续殖民叙事并加剧现有的差距。因此,土著数据——无论是故事、工具、价值观还是习俗——必须指导并作为 21 世纪数据治理和人工智能发展的基础,以促进土著人民的公平和正义。
人工智能无处不在,帮助和保护着社会,对吧?仅用十二秒,人工智能就可以根据一个人的语音(无论说了什么)检测酒精中毒并挽救因醉酒行为而受到威胁的生命。人工智能的最新进展已经达到了这样的程度:这种技术不仅存在,而且价格低廉、即时、易于获取、越来越准确,并且可能无法检测到。然而,这种语音分析也可能使主体受到指控,并可能泄露高度个人信息,同时绕过典型的宪法保护。应该质疑这种技术,以免社会用编码程序取代人类判断,这些程序抹杀隐私并误判性格——对于传统上代表性不足的人群而言,这种做法往往具有歧视性。语音分析“大数据”突破的必要伴侣是对这些进步如何调整个人权利的深思熟虑的评估。从第一修正案的自由到第十四修正案的正当程序和平等保护,用于识别酒精醉酒的基于音频的深度学习算法提出了必须解决的宪法挑战。本文就是这样做的。
每天,在委内瑞拉的梅尔巴都会在凌晨 4 点起床,为机器学习算法注释数据。她是全球众多登录众包平台为开发人工智能的科技公司执行任务的工作者之一。她每周可以全职工作 15 到 20 美元,足以补充她的养老金,由于持续的恶性通货膨胀,她的养老金现在每月只值一美元:“不够买半打鸡蛋;不够买一块奶酪或面包。” 由于经济和 COVID-19 形势严峻,梅尔巴和许多其他委内瑞拉人都转向为在线平台工作。虽然这些工作提供了较低的进入门槛和稳定的美元收入,但它们并不能提供稳定的就业:这些工人被视为自由职业者,被这些公司称为评估员、标注员或注释员。作为我论文研究的一部分,我调查了拉丁美洲各地通过数字劳动平台为人工智能注释数据的工人的经历。通过这项研究,我遇到了梅尔巴和其他许多人,我在下面列出了他们的故事。我通过社交媒体上的工人小组与他们取得了联系,自疫情开始以来,我们就在网上聊天。我之所以联系他们,是因为委内瑞拉人占拉丁美洲人工智能平台工人的大多数,作为一名拉丁裔,我想听听他们的经历。总的来说,我发现这种平台劳动是剥削性的,但也是为了抹杀工人的声音。本文探讨了委内瑞拉平台工人的工作条件及其与他们帮助创造的人工智能的关系。我认为劳动力是人工智能中一个尚未充分探索和研究的领域。作为批判性人工智能学者,我们无法说出什么是“道德的”、“有益的”或“负责任的”,除非
项目名称:种族与社会公平倡议 案件编号:2016-003351CWP 工作人员联系人:Miriam Chion,住房和社区公平经理 miriam.chion@sfgov.org;415-575-9124 审核人:Rich Hillis,规划部主任 决议以规划部门的工作计划和资源分配为中心,以实现种族和社会公平;承认并对导致种族差异的不公平规划政策历史表示歉意;指示该部门实施其种族和社会公平行动计划;指示该部门与黑人、印第安人和有色人种社区合作,制定积极主动的战略来解决结构性和制度性种族主义问题;指示该部门修改其雇用和晋升做法,以确保该部门的工作人员在各个级别都反映出社区的多样性和人口统计数据;建议监事会谴责政府的歧视性行为;并且,指示该部门通过指标和报告建立问责制。序言 鉴于,规划委员会已经反思了当前 COVID-19 事件及其对美国印第安人社区、黑人社区和有色人种社区造成的不成比例的影响;由于警察的暴力和不当行为导致乔治·弗洛伊德、布伦娜·泰勒、阿莫德·阿伯里、亚历克斯·涅托、马里奥·伍兹、路易斯·贡戈拉·帕特等无数人被谋杀;以及为这些事件奠定基础的政府和经济结构;鉴于,旧金山人权委员会指出,种族平等意味着对所有种族的人进行系统性的公平对待,以实现平等的结果,同时认识到历史背景和对特定种族群体造成的系统性伤害;鉴于,旧金山长期以来一直在制定和/或执行法律、政策和机构,这些法律、政策和机构助长了白人至上主义并加剧了旧金山市和县(“城市”)的种族不平等,其中大部分由于历史抹杀而难以记录。造成这种种族不平等的条件还因种族与阶级、性别的交叉而加剧,
摘要 — 在本文中,我们提出了一场数字经济革命,为人工智能代理配备链上可编程金融流动性的自主权,将它们变成真正的一流数字公民。这种新型人工智能代理被称为 ALI 代理(人工智能代理),它们不仅拥有自己的原生货币供应,而且还开创了新的价值创造机制。这些机制使它们能够无缝地与彼此的微观经济互动,以无需许可和无需信任的方式随意进入和退出。ALI 代理天生就具有流动性,因为它们本质上拥有金融价值,并且可以在数字经济中交易和交换该价值以换取其他形式的价值。当前人工智能系统的集中化限制了人工智能技术的可扩展性、灵活性以及道德和透明治理,扼杀了公平全球进步所必需的道德和政治想象力。这种权利被剥夺还延伸到人工智能资源(训练数据、计算基础设施和财务奖励)的基本所有权,而这些资源仍掌握在少数人手中,使广大民众无法享受人工智能创新的真正好处。此外,这些系统往往控制着叙事,提倡经过净化的言论和互动,以支持让少数人受益、剥削多数人的商业模式。这种系统性失衡剥夺了广大社区的创造者和用户,而他们的贡献对于人工智能网络的增长和价值至关重要。人工智能行业的控制集中有可能造成技术所有者和全球人口之间的权力严重失衡。集中化的人工智能系统可能会改变市场行为,将财富和影响力集中在少数群体手中,在影响全球人民的人工智能技术上建立主导地位。这可能会导致对不同文化的剥削和抹杀,因为统一的解决方案被普遍应用,而不考虑当地的身份和需求。通过基于代理的建模,我们展示了这个去中心化平台的有效性,分析了 ALI 代理在代币经济中的交互以及债券曲线提供的动态定价机制。这些模拟证实了我们的去中心化方法提高了 AI 代理的运营效率,并确保了更加民主、包容和可持续的数字未来。本文不仅提出了前所未有的变革性技术的整合,还呼吁彻底重新构想我们的伦理、道德和金融框架,倡导去中心化的转变,赋予全人类权力,而不仅仅是技术精英,预示着一个服务和造福全人类的 AI 新时代。