“虽然这对于鼓励协作、建立团队精神和创建机构知识库来说是个好主意,但它对电子发现、风险管理和信息治理有着可怕的潜在影响。保留所有这些数据和闲聊——相关的和不相关的、永恒的和一时兴起的、项目导向的和社交的——会开辟一个与隐私、机密性和电子发现相关的潜在风险的世界。”
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
● 文章/视频:人工智能如何推荐视频 [ 链接 ] ● 视频:人工智能、社交媒体和选举 [ 链接 ] ● 视频:人工智能和社交媒体营销 [ 链接 ] ● 文章:人工智能在社交媒体中的利弊 [ 链接 ] ● 文章:视频游戏人工智能的社会和哲学影响 [ 链接 ]
3月18日至19日,一群专家在Eelisa AI伦理和法律讲习班举行的布达佩斯。在四个小组讨论中,他们将研究该主题中可能的研究方向,以及监管的含义,尤其是对版权事项和欧盟AI法案的含义。该事件还将采用未来的预测方法和纪录片筛选。
摘要 — 智慧城市技术已经能够比以前更细致地追踪城市居民。通过人工智能实现的数据收集和分析的增加,带来了隐私、安全和其他伦理问题。本系统综述收集并整理了智慧城市周围的知识体系。作者使用关键词搜索了 5 个数据库中的 34 篇重点学术出版物,这些出版物的日期为 2014 年至 2022 年之间。这项研究表明,文章通常侧重于隐私、安全和公平的伦理问题、特定技术基础评论或框架和指导对话。本文有助于组织跨学科主题,并将智慧城市伦理方面的知识体系收集起来,形成一个供实践者、研究人员和利益相关者使用的单一、全面的资源。
1. 了解人工智能的法律和伦理含义,以及它们如何影响社会、组织和个人。 2. 分析人工智能应用和技术对政府、行业和公众等各利益相关者的潜在影响。 3. 批判性地理解人工智能的潜在风险和好处,以及如何在最大化好处的同时降低风险。 4. 了解法律、法规和道德在塑造人工智能发展和使用方面的作用。 5. 了解如何将道德原则和框架应用于人工智能相关的决策。 6. 了解人工智能运行的社会、文化和政治背景,以及这些背景如何影响人工智能的发展和部署。 7. 了解公共政策在规范和塑造人工智能发展和使用方面的作用。 8. 了解研究伦理在人工智能中的作用以及人工智能研究人员的道德责任。 9. 了解不同观点和声音在塑造人工智能发展和使用方面的作用,包括代表性不足的群体和边缘化社区的观点。 10.了解人工智能在促进或阻碍社会公正和平等方面的作用。
1.将精力集中在研究和创新界、成员国和私营部门,以及那些在欧洲人工智能战略中应该优先考虑的领域。2.在主要贸易伙伴的政策与欧盟管理人工智能开发和使用的政策之间建立一致性。3.分析当前生态系统中理论框架和构建可信人工智能系统的方法之间的差距,以创建更具可操作性的指导,帮助组织在实践中实施这些原则。4.注重协调和政策协调,特别是在两个领域:增加对人工智能初创企业的融资以及发展技能和调整当前的培训计划。5.利用联邦学习、差异隐私、联邦分析和同态加密等技术进步,重点关注促进数据私密和安全共享的机制。6.创建现有人工智能研究卓越中心网络,以加强研究和创新社区,重点是开展考虑到各种价值观/道德观的高质量学术工作。7.促进知识转移,为中小企业发展人工智能专业知识,并通过数字创新中心支持中小企业与其他利益相关者之间的伙伴关系。8.在有关人工智能系统不透明度的讨论中添加细微差别,以便对这些系统的治理方式以及在哪个地方需要何种程度的可解释性和透明度采取循序渐进的方法。9.为个人创建一个对人工智能系统的决定或输出提出上诉的流程,例如“谈判权”,这类似于《通用数据保护条例》(GDPR)中详述的“反对权”。10.实施新规则并加强现有法规,以更好地解决有关人工智能系统的担忧。11.禁止使用面部识别技术,这可以大大降低歧视性结果和侵犯基本权利的风险。12.对所有人工智能系统(例如低风险、中风险和高风险应用程序)都应遵守类似的标准和强制性要求。13.确保如果使用生物特征识别系统,它们能够实现实施的目的,同时也是完成任务的最佳方式。14.15.对不被视为高风险的系统实施自愿标签系统,并应通过强有力的经济激励措施进一步支持该系统。任命了解人工智能系统并能够与各种利益相关者有效沟通任何潜在风险的个人参与人工监督过程,以便他们采取适当的行动。