印度Bhagwant大学Ajmer助理教授1 Shree Dhanvantary工程技术学院助理教授,印度苏拉特,印度苏拉特2,3,4摘要:监视中人工智能(AI)技术的扩散提出了有关隐私权和公民自由和公民自由的深刻法律和道德问题。本文批判性地研究了AI驱动的监视的含义,重点介绍了面部识别,预测性警务和批量数据收集的争议问题。由AI算法提供支持的面部识别技术在公共部门和私营部门都变得无处不在。支持者认为其潜力提高了安全性和效率,但批评者引起了人们对其固有偏见,隐私的入侵以及大规模监视潜力的担忧。本文研究了有关使用面部识别的法律框架,评估了其遵守隐私和非歧视性的基本权利。预测性警务是AI在监视中的另一种应用,它利用算法来预测犯罪模式并分配执法资源。然而,关于这些算法的公平性和透明度以及它们存在历史犯罪数据固有的偏见的潜力。本文研究了预测性警务的法律和道德意义,解决了正当程序,问责制和无罪推定的问题。大规模数据收集(由人工智能技术促进)给隐私权带来了进一步的挑战。政府和公司聚集了大量的个人数据,通常没有足够的透明度或同意。考虑到其遵守数据保护法和隐私权的遵守情况,本文评估了大众数据收集实践的合法性。利用法律分析和道德理论,本文提供了一个全面的框架,用于评估AI技术对监视和隐私权的影响。它主张需要在安全问题与基本权利之间取得平衡,并提出有关监管改革的建议,以保护隐私,促进透明度并减轻AI驱动的监视风险。关键字:人工智能,监视,隐私权,面部认可,预测性警务,群众数据收集,法律意义,道德考虑
主要关键词