在应用程序开发过程中,Lookout 团队参与了多次人工智能原则评审,并进行了对抗性公平性测试。该团队采用了 Google DeepMind 视觉语言模型 (VLM),该模型针对此用例进行了高度定制,并得到了来自 BLV 人群以及跨性别和非二元性别者的多轮反馈。VLM 使人们能够就图像提出自然语言问题。新的 Lookout 问答功能允许用户超越字幕,询问对他们来说最重要的图像细节。此功能允许团队提供不带感知性别的字幕,但如果用户询问有关某人性别的问题,该模型可以使用来自该人外表的线索提供感知性别的最佳猜测。通过这种方式,Lookout 可以避免在不需要时提供性别描述,从而减少潜在的性别错误,但应用程序可以在用户认为这些信息对他们有用时提供这些信息。Lookout 团队对 BLV 和非二元性别的最终用户测试了这种方法,发现这些用户认为这种方法既有用又尊重。
AI-Ethics 4 监督机构可以是监督和评估企业、政府和其他机构的道德实践和行为的组织、个人或实体。一些公司可能已经或可能建立内部监督团队,以监督其组织内 AI 的使用和发展。此类监督机构的作用应与既定的道德标准和社会期望保持一致。
负责任地使用人工智能 人工智能 (AI) 写作辅助工具的出现为学生提供了宝贵的写作帮助。大学鼓励使用写作辅助工具,但是,每个学生都必须了解过度依赖 AI 写作辅助工具的道德陷阱和困境。正如 Liberty Way 中所述,大学的期望是学生不能使用 AI 写作辅助工具来生成作业内容。这一期望尊重了大学长期以来对学生作品的原创性和真实性的价值观。原创性和真实性原则是我们对 AI 立场的驱动因素。我们不会禁止 ChatGPT、Grammarly 或任何其他 AI 写作辅助工具。许多 AI 工具都具有非常有用的功能,学生可以合乎道德地使用它们。我们禁止的是允许 AI 生成以原创作品呈现的内容或允许 AI 对现有作品进行重大修改,以至于作业不再是学生自己的话。这种行为引起了人们的担忧,并且由于侵犯了作业的原创性和真实性,可以被视为学术不端行为。 Turnitin AI 检测器也极有可能检测到这种 AI 的使用。正如学生不应将自己的作业交给其他人添加内容一样,AI 也是如此。Grammarly 的使用非常普遍,大学也没有禁止使用。Grammarly 对学生来说可能是一个非常有价值的工具。但是,建议学生采取预防措施,避免在 Grammarly 或任何其他写作辅助工具中使用生成文本 AI 功能。学生不应接受 AI 对其作品进行的“改进”。如果 Grammarly 建议对您的作品进行基本拼写和语法编辑以外的修改,则不应接受这些修改。我们鼓励学生让他们的真实写作风格在他们的作品中占据突出地位,而不要让它被 AI 生成的内容所淡化。如果可能,强烈建议关闭 Grammarly 或任何其他写作辅助工具中的生成文本 AI 功能。
Pets at Home Group plc 是英国领先的宠物护理企业;我们的承诺是确保宠物及其主人获得最好的建议、产品和护理。我们的宠物护理中心、Groom Room 沙龙和 First Opinion 兽医诊所遍布英国各地,使我们能够为全国各地的客户提供便捷的宠物护理。宠物食品和宠物配件产品可在线购买,也可从我们的 457 家宠物护理中心购买,其中许多中心都设有兽医诊所和美容沙龙。Pets at Home 运营着英国最大的 First Opinion 兽医诊所品牌网络,共有 443 家诊所以 Vets4Pets 和 Companion Care 品牌名称运营。我们首选的模式一直是通过共享所有权来创造价值。我们总共运营着 388 家合资 First Opinion 诊所,它们都是作为独立的小型企业建立的。其余 55 家 First Opinion 诊所采用公司管理模式运营。直接或间接(通过 First Opinion 合资公司)雇用了超过 16,500 名员工。我们自行运营配送中心,并拥有一批租赁的重型货车和货车。我们不断扩大的送货上门网络得到了来自北安普敦配送中心的承运商合作伙伴的支持。
尽管伦理道德在应用于人类行为时有着丰富的哲学定义历史,但将同样的概念和原则应用于人工智能可能会充满问题。将人工智能拟人化为具有“伦理”等特征可能会助长一种危险的、不切实际的期望,即人工智能可以被训练成具有内在的、有保证的伦理行为。作者反而主张加强对人工智能伦理使用的研究,从最初的构思和设计到操作使用和维持。作者提倡五个关键研究领域:(1) 为人工智能开发者、领导者和用户提供道德和核心人工智能概念教育;(2) 开发和使用模型卡或数据集数据表,以提供对训练模型的优势、局限性和潜在偏差的透明度;(3) 采用以人为本的设计,力求在任务环境中理解人类价值结构,并通过直观透明的界面实现有效的人机交互;(4) 有针对性地使用运行时保证,在必要时监控和修改训练模型的输入或输出,以执行安全或限制偏差等道德原则;(5) 开发使用人机联合创造和训练经验的最佳实践,以通过潜在的突发行为实现共享的心理模型和更高的性能。
背景信息 ViewSonic 在全球范围内努力促进企业社会责任,正如其《环境政策声明》中所述,其目的是维护对人权的保护。ViewSonic 强烈支持负责任商业联盟(“RBA”)(原名电子行业公民联盟)和全球电子可持续发展倡议(“GeSI”)。ViewSonic 还是他们共同创立的负责任矿产倡议(“RMI”)(原名无冲突采购倡议)的积极成员。我们利用 RMI 开发的工具和资源,包括负责任矿产保证流程(“RMAP”)(原名无冲突冶炼厂计划),协助我们的供应商采购无冲突矿产。此外,RMAP 还引入了冲突矿物报告模板 (“CMRT”),以标准化整个供应链中有关矿物原产国和所用冶炼厂和精炼厂身份的信息收集和传输。我们要求一级关键供应商通过 CMRT 披露并及时更新冶炼厂和矿山信息。这些供应商每年要接受独立第三方的审计。我们的采购政策规定,供应商仅从获得 RMI 等信誉良好来源“无冲突”称号的设施或冶炼厂采购钽、锡、钨、金(或“3TG”)和钴/云母。合理原产国调查 ViewSonic 通过审查可用资源(例如物料清单、产品规格、设计文档和组件管理系统)对我们产品中包含的负责任矿物进行合理原产国调查 (“RCOI”),以初步确定负责任矿物含量。我们的工程和供应链人员积极参与并帮助我们了解产品材料内容。我们根据尽职调查过程中从直接供应商处获得的信息,确定我们产品中包含的负责任矿产是否来自刚果民主共和国或周边国家(“涵盖国家”)。如果负责任矿产来自涵盖国家,我们会进一步调查以确定这些矿产是否来自支持该地区武装团体的来源。ViewSonic 遵守 OECD 负责任矿产供应链尽职调查指南:
1)通过最大限度地发挥人工智能的经济潜力来释放机遇。拥抱人工智能的经济体将实现显著增长,超越那些接受速度较慢的竞争对手。在现有行业中采用人工智能代表着提升价值链、生产更复杂、更有价值的产品和服务的机会。尽管人口挑战日益严峻,但人工智能也有望帮助提高生产力。政府、私营部门、教育机构和其他利益相关者需要制定联合和单独的战略,使企业、工人和社区能够利用人工智能的优势。政府应增加对基础人工智能研究的投资,研究未来工作的发展以帮助劳动力转型,并制定计划以确保强大的 STEM 人才渠道。政府和行业需要加大力度提高工人的技能,并支持企业满足不断变化的需求和生产商品和服务的新方式。
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。