将人工智能系统视为边界对象,它们是跨学科的对象,在不同领域的跨学科对象中,在提供共同的话语的同时,本文总结了检查AI系统中偏见的方法。认为,检查与AI系统的建设和工作有关的每个部分对于打开政治游戏和潜在插入偏见点至关重要。通过操作诠释学的逆向工程,将数据和算法的关键分析作为AI系统的两个核心部分。诠释学逆向工程是一个框架,可以解开和了解有助于其含义和环境的技术文化对象和/或系统的不同元素。它对可以设计其他现实的投机性想象力,并包括文化分析,以确定技术文化对象背后的现有含义和假设,确定含义的关键要素,并推测重新组装对象的不同含义的可能性。该方法在AI系统上获得的主要结果是使用文化考虑和技术想象力来解开AI和设计创新方法为AI发挥替代/包容含义的现有含义。本文中提出的研究观点包括对AI系统不同要素内的偏见和政治的批判性检查,以及这些偏见对不同社会群体的影响。本文提出了使用诠释学逆向工程的方法来研究AI系统,并推测AI系统可能的替代和更负责任的期货。
1,2学生,第5年B.A.Ll.B.(荣誉摘要:人工智能(AI)迅速发展并破坏了许多领域,例如网络安全,治理,执法等。,但随着这种演变,有几个法律问题要考虑,在许多情况下,当前的法律不合适。围绕AI技术的复杂性,尤其是关于算法偏见和自动决策问题的问题,提出了2000年《信息技术法》最初设计的新挑战。本研究的重点是需要紧急关注的两个关键因素:算法问责制和数据隐私。虽然算法问责制涉及透明度的需求和追踪决策过程的能力,但数据隐私围绕着保护个人信息免受不道德AI的使用。缺乏解决这两个因素的明确规定/解释,不仅削弱了印度法律制度,而且威胁着保护个人权利。为了解决这些问题,本研究使用从美国的《算法责任法》和《欧盟的AI法》等框架中收集的信息提供了比较分析。这些框架通过引入广泛的程序来控制算法偏见/不准确性并增强数据隐私性,从而确立了全球范围内的AI治理指南。另一方面,印度的法律制度仍然混乱,没有有效的策略来应对AI的特殊威胁和能力。1。早期除了法律改革外,该研究还说明了AI如何滥用数据并鼓励偏见的更有效的解释,尤其是在像印度这样的大型文化中。因此,研究强调需要立即和集中的改革来建立强大的监管框架,以考虑AI的复杂性。这涉及实施严格的数据保护法规和AI系统所需的透明度指南,以确保AI技术是负责任地开发和实施的,从而保留了个人之间的数字权利和信任。关键字:人工智能(AI),网络法,算法偏见,自动决策,数据隐私,法律差距,比较分析和监管改革。研究的背景:人工智能(AI)一直在迅速改变各个部门,但其增长也引起了复杂的法律挑战,尤其是在数据隐私和算法责任方面。
结果:本研究中使用的最终数据集由1,048,422例使用参与者的年度健康检查记录,包括肾衰竭患者(n = 13,156 [1.27%])。表现最佳的模型是双重组件,其中包括所有功能,不包括年龄,包括脊回归和LightGBM组成,AUROC为0.754,精度为0.693,特异性为0.693,敏感性为0.691,敏感性为0.691,测试数据集对0.692的精度平衡。最后,预测肾衰竭的五个最重要特征是年龄,体重指数,空腹血糖,舒张压和收缩压。