在运营阶段部署视觉 AI 解决方案意味着视觉系统或视觉传感器接收输入图像或视频,并生成元数据,例如人数或汽车数量,或与特定对象相关的事件(例如产品识别)。在此阶段,PerCV.ai 通过两种方式确保隐私,首先是使用边缘 AI,其次是尽可能使用视觉传感器设计。边缘 AI 意味着所有视频和图像数据都在视觉传感器上实时本地处理,元数据在边缘设备提取,只有这些元数据可以传递到云或其他基础设施。在运营阶段,边缘 AI 不会存储任何图像或视频数据。这是 PerCV.ai 的强项,因为我们可以在各种边缘平台中部署视觉 AI 解决方案,从强大的 GPU 和 VPU 到微型 MCU 和 DSP。更多详细信息可在 Irida Labs 网站的合作伙伴部分找到。
新技术带来了新的伦理(和法律)挑战。通常,我们可以应用先前建立的原则,即使可能需要一些时间才能完全理解新技术的细节 - 或由此产生的问题。例如,国际放射防护委员会成立于 1928 年,其建议基于平衡与 X 射线和 CT 扫描相关的辐射暴露与新调查的诊断优势。随着证据的积累和技术的变化,他们定期更新他们的建议,1 并且能够从完善的道德原则中推断出来。其他新技术不太适合现成的道德解决方案。本期的几篇文章讨论了与医学中使用人工智能 (AI) 相关的道德挑战。尽管已经制定了关于人工智能使用和发展的多项道德规范和指南,但哈根多夫指出,其中许多都重申了“基于普遍遵守原则和规则的义务论导向、限制行动的道德”。2 将现有的道德框架应用于人工智能是有问题的,原因有几个。具体来说,人工智能有两个特点与传统医学伦理所基于的当前临床实践截然不同:1.所谓的深度学习“黑匣子”,即深度神经网络经过训练,可以迭代适应,从而在复杂和非线性数据层之间做出越来越好的解释。3 由此产生的(并且不断适应的)算法通常过于复杂,无法解释或说明,这意味着正在使用的部分流程甚至对用户来说都是不透明的。4 这使得遵守透明度和知情同意原则变得困难甚至不可能,并限制了用户(临床医生和患者)的自主权。2.AI 的每个元素都是为了实现其创建者设定的特定目标而开发的,但没有“意图”
摘要 对技术的依赖性不断增加,使国家安全成为 21 世纪关注的焦点。它给发展中国家和发达国家在应对网络威胁方面带来了许多挑战,并增加了与技术相关的固有风险因素。无法安全地保护数据可能会带来深远的灾难性后果。因此,制定国家、地区和全球数据保护政策和法规以惩罚那些不道德地使用技术和滥用技术系统漏洞的人至关重要。本研究论文旨在分析南亚地区受 GDPR 启发的法案,并确定它们是否适合开发全球层面的数据保护机制,因为亚洲国家比欧洲国家更加多样化。在此背景下,本文的目标是确定南亚地区受 GDPR 启发的法案,找出相似之处和差异,以及开发区域级数据保护机制的障碍,从而满足开发全球级机制的需要。这项研究本质上是定性的,考虑到这一点,研究人员对上述内容的先前研究论文、期刊文章、先前的调查报告和政府出版物进行了广泛的文献调查。考虑到调查结果,研究人员批判性地分析了文献综述中确定的重要参数。这项研究的主要发现表明,南亚地区的许多国家正在根据 GDPR 审查其当前的数据保护机制。最后,研究人员强调需要制定适当的数据保护机制,并认为,今后建立基于共识的区域机制将是适当且实用的方法,最终将能够制定持久的全球数据保护机制。
2 根据该法第 6 条,“与种族、民族血统、政治观点、哲学信仰、宗教、教派或其他信仰、外貌、协会、基金会或工会会员资格、与健康、性生活、犯罪定罪和安全措施有关的数据,以及生物特征和基因数据”被视为特殊类别的个人数据。
三与衡量客户对 SGR 所提供服务质量和所开展活动(直接执行或通过专业公司开展活动)的满意度相关的目的,通过信函、电话、发送广告材料、电子通信系统、进行市场研究、发送个性化邀请或礼物、执行公共关系活动(包括有针对性和/或个性化的公共关系活动)推广和销售 SGR 的产品和服务,包括分配给执行向客户传输、包装、运输和分类通信活动的公司,以及与将此类数据传达给 Mediobanca 集团的公司有关的用途。为了这些目的而提供同意并不是强制性的。这
在比利时,布鲁塞尔机场 (Zaventem) 的联邦警察使用 FRT 进行了测试。作为测试的一部分,LFR 部署在四个摄像头上,以将穿过机场的个人与通缉名单进行匹配。COC 充当执法部门处理个人数据的数据保护机构,对该测试进行了调查,并发布了一份报告,总结了其调查结果和采取的行动。COC 发现,尽管由于误差幅度高,测试部分停止,但 LFR 系统实际上仍然部分活跃。根据对测试与法律框架的分析,COC 还发现,测试的适当法律依据不够明确,风险评估等文件尚未完成。因此,COC 发布了一项纠正令,暂停 LFR 测试项目。
本手册适用于已经熟悉并了解机器学习 (ML) 流程的 AI 开发人员,例如早期初创企业。本手册的目的是让开发人员清楚地了解 AI 中的基本道德框架以及与保护个人数据和隐私相关的重要问题。借助本手册,开发人员将能够从产品/应用程序设计之初到开发过程中遵循道德和数据保护法的指导方针。从一开始就牢记这些参数可以让开发人员和初创企业免于以后可能出现的问题,并可能产生复杂情况,甚至可能迫使放弃和重新设计产品/应用程序。本手册鼓励开发人员采取跨学科的视角,超越算法准确性的限制,关注产品的社会影响。本手册不提供技术解决方案,但为开发人员提供了要追求的道德和法律目标。开发人员可以自由思考以创新方式将这些指南纳入他们的设计中。
1 Cohen,《个人数据在人工智能技术开发中的道德使用:远程生物特征身份验证案例研究》。2 Meehan,《数据隐私将成为未来十年最重要的问题》。3 Moore,《在集成电路中塞入更多元件》。