1 普适数据这一术语旨在指通过在线服务收集的有关人员的数据(用户贡献、观察、获取或推断),无论这些数据在多大程度上是公开的、汇总的或可能导致识别个人。普适数据可能包括文本、图像、视频、生物特征信息、有关数据主体行为的信息(购买、财务状况、媒体消费、搜索历史、医疗状况、位置等)以及构成个人数字足迹的其他信息。在线服务可能包括整个技术堆栈/技术基础设施中的各种信息技术,包括但不限于基于 Web 的监控工具、内容交付网络、区块链技术、数字劳动力平台、教育技术、物联网设备、联网汽车、可穿戴设备、移动传感器、数据代理、流媒体服务、搜索引擎、在线市场、社交媒体平台和人工智能系统。 “普适数据”这一术语源自美国国家科学基金会资助奖编号 1144934 下开展的研究(https://www.nsf.gov/awardsearch/showAward?AWD_ID=1144934)。2 例如,请参阅 Michael Zimmer 的《解决大数据研究伦理中的概念差距:情境完整性的应用》,《社交媒体+社会》4,第 2 期(2018 年),https://doi.org/10.1177/2056305118768300;aline shakti franzke 等人的《互联网研究:道德准则 3.0》,互联网研究人员协会(2020 年),https://aoir.org/reports/ethics3.pdf。3 本征求意见稿中所述的道德和隐私准则侧重于数据从在线服务提供商流向在线服务提供商之外的独立研究人员,这些研究人员通常隶属于学术或非营利机构。 4 数据中介机构旨在描述一个独立的实体,其专门为促进研究人员和在线服务提供商之间根据商业或非商业协议进行数据访问和共享而运营,或评估
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
“虽然这对于鼓励协作、建立团队精神和创建机构知识库来说是个好主意,但它对电子发现、风险管理和信息治理有着可怕的潜在影响。保留所有这些数据和闲聊——相关的和不相关的、永恒的和一时兴起的、项目导向的和社交的——会开辟一个与隐私、机密性和电子发现相关的潜在风险的世界。”
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。
研究人员是否知道道德考虑因素以及何时将其应用于研究?本文使用二级数据源来描述数据编辑学科和原则的各个方面,并以道德考虑在定性和定量研究方法中研究研究中的编辑数据。通过过去的研究,研究的道德亚结构包含三个层面的维度:哲学,实践和反思性。数据编辑过程探索和审查数据,以确保一致性,错误和异常值和纠正错误,以提高收集到的数据的质量,准确性和充分性,从而使其更适合于收集数据的目的,例如检测到数据持续数字的字段数量和误差。数据编辑过程基于逻辑,常识和遵守书面程序或编辑指南,针对院士,政策制定者和研究人员的未来研究人员。
该课程的目的和大学的目的更广泛 - 是帮助您发展批判性思维技能,自行思考的能力。当我们进入人工智能时代(如果是我们正在做的话)时,为自己思考并清楚地表达您的想法的能力将比以往任何时候都变得更加重要。在您的学术写作中,您正在与其他人类就主要想法进行对话。我敦促您以自己的想法和自己的声音进行这种对话。写作过程虽然困难且耗时,但可以帮助您完善和澄清想法。本课程为您提供了练习和发展这些基本的批判性思维技能的机会。,如果您依靠聊天机器人来生成想法并为您写论文,则不会从中受益。
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
马里兰州克朗斯维尔:今天,马里兰州信息技术部 (DoIT) 和马里兰州人工智能分部宣布,他们已向马里兰州议会提交了人工智能支持战略和人工智能研究路线图(AI 路线图)。该路线图列出了该州将实施的 5 部分战略,以加快在全州安全实施人工智能和机器学习技术。它还概述了该州将在 12 个关键领域开展的具体研究,包括促进经济发展、提高州劳动力的生产率以及为当地学校系统制定政策。“生成人工智能正以前所未有的速度发展,可能影响马里兰州人民生活的几乎每个方面,”DoIT 部长兼人工智能分部主席 Katie Savage 表示。“人工智能路线图为马里兰州在 2025 年的发展规划了路线图,帮助其加快人工智能采用的步伐,同时考虑到马里兰州独特的资产、机遇和风险。我们准备以切实可行的方式采用这项技术,使我们的国家更加安全、更具竞争力、更高效。”