● 文章/视频:人工智能如何推荐视频 [ 链接 ] ● 视频:人工智能、社交媒体和选举 [ 链接 ] ● 视频:人工智能和社交媒体营销 [ 链接 ] ● 文章:人工智能在社交媒体中的利弊 [ 链接 ] ● 文章:视频游戏人工智能的社会和哲学影响 [ 链接 ]
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?
● 创建工具来指导出版决策:使用基准或第三方专家小组等外部测量可能是公平指导出版决策的关键一步。此类方法可以设定与出版相关的可接受风险水平的一定标准。根据此建议,记录由于其固有风险而被拒绝的论文以及一些相关指标也是恰当的。● 提供页码扩展: 延长已发表论文的页数限制可能会有所帮助,以便研究人员能够包括传统上不会打印的负面结果(无关紧要或反驳研究人员假设的结果)。 除了增加页数外,还应该显著改变围绕负面结果发表的文化。● 建立同行网络:建立同行网络以评估研究人员的人工智能模型的潜在风险和收益,可能是制定更好、更安全的出版规范的重要工具。如果建立这样的机制,评估可以完全或部分基于哲学家约翰·罗尔斯的“无知之幕”。 如果将这个想法应用于审查人工智能研究,可以要求同行评审员从不同的社会角度考虑新人工智能研究的潜在优势和风险。● 要求提供广泛的影响声明: NeurIPS 会议要求提交的论文包括与所提出研究有关的更广泛影响的声明。通过将反思作为在 NeurIPS 上考虑其工作的必要条件,这激励研究人员思考潜在的风险和收益。所有会议和出版物上的类似措施将鼓励研究人员批判性地评估他们的研究对世界产生的积极和消极影响 ● 要求公布预期结果:要求研究人员撰写和公布其研究项目的预期结果(包括但不限于其更广泛的社会和道德影响)有助于在研究人员开展项目之前就潜在的利益和危害进行反思。● 改革同行评审流程:同行评审的完善做法为每位评审员就他们正在修改的论文中看到的风险和利益进行交流提供了绝佳的机会。如果在评审论文时添加了一个问题或要求,可能会迅速产生广泛的影响,促使研究人员考虑他们的研究可能产生的结果。有效的审查流程应在明确、公平和高效的同时,促进风险限制。实现此目的的一种方法是根据同行评审论文所认为的研究风险程度,按比例加强出版要求。
森林在地面碳循环中至关重要,并且对它们对持续气候变化的反应的了解对于确定未来的碳浮动和气候轨迹至关重要。在具有对比季节的区域,树木形成可以分配给日历年的离散年环,从而可以提取有关树木对环境的反应的宝贵信息。木材的解剖结构提供了有关树木对气候的反应和适应的高度分辨信息。定量木材解剖结构有助于通过使用木材微剖面的高分辨率图像在细胞水平上测量木材来检索这些信息。然而,尽管在识别细胞结构方面已经取得了很大的进步,但获得有意义的细胞信息仍然受图像上正确的年度树环界定的阻碍。这是一项耗时的任务,需要经验丰富的操作员手动界定环边界。基于像素值的自动分割的经典方法正在用能够区分结构的新方法代替,即使分界需要高水平的专业知识。尽管已使用神经网络进行木环的分割,但木制的木材图像,但阔叶物种染色的微观切片中细胞模式的复杂性需要自适应模型才能准确地完成此任务。我们在山毛榉核心染色的横截面微隔板图像上使用神经网络提出了自动树环边界划定。基于卷积神经网络的应用我们训练了一个UNETR,一个UNET的联合神经网络和视觉变压器的注意机制,以自动分段年度环边界。考虑到具有手动分割的差异以及数量木材解剖学分析目标的差异以及差异的后果。在大多数情况下(91.8%),自动分割匹配或改进了手动细分,即使将手动细分视为更好的情况,两种类别之间的船只分配率也相似。
1.将精力集中在研究和创新界、成员国和私营部门,以及那些在欧洲人工智能战略中应该优先考虑的领域。2.在主要贸易伙伴的政策与欧盟管理人工智能开发和使用的政策之间建立一致性。3.分析当前生态系统中理论框架和构建可信人工智能系统的方法之间的差距,以创建更具可操作性的指导,帮助组织在实践中实施这些原则。4.注重协调和政策协调,特别是在两个领域:增加对人工智能初创企业的融资以及发展技能和调整当前的培训计划。5.利用联邦学习、差异隐私、联邦分析和同态加密等技术进步,重点关注促进数据私密和安全共享的机制。6.创建现有人工智能研究卓越中心网络,以加强研究和创新社区,重点是开展考虑到各种价值观/道德观的高质量学术工作。7.促进知识转移,为中小企业发展人工智能专业知识,并通过数字创新中心支持中小企业与其他利益相关者之间的伙伴关系。8.在有关人工智能系统不透明度的讨论中添加细微差别,以便对这些系统的治理方式以及在哪个地方需要何种程度的可解释性和透明度采取循序渐进的方法。9.为个人创建一个对人工智能系统的决定或输出提出上诉的流程,例如“谈判权”,这类似于《通用数据保护条例》(GDPR)中详述的“反对权”。10.实施新规则并加强现有法规,以更好地解决有关人工智能系统的担忧。11.禁止使用面部识别技术,这可以大大降低歧视性结果和侵犯基本权利的风险。12.对所有人工智能系统(例如低风险、中风险和高风险应用程序)都应遵守类似的标准和强制性要求。13.确保如果使用生物特征识别系统,它们能够实现实施的目的,同时也是完成任务的最佳方式。14.15.对不被视为高风险的系统实施自愿标签系统,并应通过强有力的经济激励措施进一步支持该系统。任命了解人工智能系统并能够与各种利益相关者有效沟通任何潜在风险的个人参与人工监督过程,以便他们采取适当的行动。
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
机器道德。剑桥:剑桥大学出版社,第1页。 451-463,2011。Greene,J。 “我们的无人驾驶困境”。 科学352(6293),1514-1515,2016。 kasirzadeh,A。 “两种类型的AI存在风险:决定性和累积性”。 arxiv:2401.07836v2,2024 Kitchin,R。“智慧城市和城市科学的伦理”。 菲尔。 trans。 R. Soc。 A 374:20160115,2016。 Liao,M。(ed)。 人工智能的伦理。 牛津:牛津大学出版社,2020年。 Levy,D。爱+与机器人的性 - 人类机器人关系的演变。 纽约:哈珀多年生,2008年。 Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和的变化规则Greene,J。“我们的无人驾驶困境”。科学352(6293),1514-1515,2016。kasirzadeh,A。“两种类型的AI存在风险:决定性和累积性”。arxiv:2401.07836v2,2024 Kitchin,R。“智慧城市和城市科学的伦理”。菲尔。trans。R. Soc。 A 374:20160115,2016。 Liao,M。(ed)。 人工智能的伦理。 牛津:牛津大学出版社,2020年。 Levy,D。爱+与机器人的性 - 人类机器人关系的演变。 纽约:哈珀多年生,2008年。 Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和的变化规则R. Soc。A 374:20160115,2016。Liao,M。(ed)。人工智能的伦理。牛津:牛津大学出版社,2020年。Levy,D。爱+与机器人的性 - 人类机器人关系的演变。纽约:哈珀多年生,2008年。Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。