人工智能(AI)正在彻底改变生物技术,为促进医疗保健,农业,药物开发等提供巨大的潜力。但是,生物技术中AI的广泛采用引起了重大的道德问题,特别是关于数据隐私和算法偏见。生物学和遗传数据的敏感性意味着围绕该信息收集,处理和保护的问题至关重要。此外,有偏见的AI系统在医疗保健和研究成果中永久性不平等的潜力需要仔细考虑。本文深入研究了这些道德挑战,强调了解决这些挑战的重要性,以确保生物技术中负责的AI集成[1]。
早期发现帕金森氏病(PD)可以使早期获得护理,从而改善患者的预后。 我们研究了使用从Web应用程序记录的数据来测量结构化鼠标和按键数据的数据,通过评估手指和手动运动模式来预测PD。 我们评估了与设备类型和惯性相关的人口偏见和偏见的影响,这与我们的应用特别相关。 我们收集了251名参与者(99 PD,152个非PD)的数据。 使用随机森林模型,我们观察到了84%的F1得分,86%的灵敏度和92%的特异性。 在仅检查各组之间的F1得分差异时,没有出现明显的偏见。 然而,使用算法公平度量指标进行更深入的分析,发现了关于积极预测和错误率的偏见。 特别是,我们发现性别和种族对接受PD预测没有统计学上的显着影响。 但是,我们在接受PD诊断方面观察到有关设备类型和主导手的偏见,这是由不同的影响和均衡的赔率公平度量指标所证明的。 这项工作表明,使用台式机或笔记本电脑等消费设备的远程数字健康诊断可能会在算法公平性(例如设备类型和触手需性)中表现出非传统但很大的偏见。早期发现帕金森氏病(PD)可以使早期获得护理,从而改善患者的预后。我们研究了使用从Web应用程序记录的数据来测量结构化鼠标和按键数据的数据,通过评估手指和手动运动模式来预测PD。我们评估了与设备类型和惯性相关的人口偏见和偏见的影响,这与我们的应用特别相关。我们收集了251名参与者(99 PD,152个非PD)的数据。使用随机森林模型,我们观察到了84%的F1得分,86%的灵敏度和92%的特异性。在仅检查各组之间的F1得分差异时,没有出现明显的偏见。然而,使用算法公平度量指标进行更深入的分析,发现了关于积极预测和错误率的偏见。特别是,我们发现性别和种族对接受PD预测没有统计学上的显着影响。但是,我们在接受PD诊断方面观察到有关设备类型和主导手的偏见,这是由不同的影响和均衡的赔率公平度量指标所证明的。这项工作表明,使用台式机或笔记本电脑等消费设备的远程数字健康诊断可能会在算法公平性(例如设备类型和触手需性)中表现出非传统但很大的偏见。
国际计算机应用和信息技术研究杂志(IJRCAIT)第8卷,第1期,Jan-Feb 2025,pp。2410-2422,文章ID:IJRCAIT_08_01_175在线可在https://iaeme.com/home/issue/issue/ijrcait?volume=8&issue=1 ISSN印刷:2348-0009; ISSN在线:2347-5099;期刊ID:0497-2547影响因子(2025):14.56(基于Google Scholar引用)doi:https://doi.org/10.34218/ijrcait_08_01_175©iaeme Publication
$ k65)。 (46/(+ $ 0+!。(&0&8&)“+1/(6”&#6/86:+1/b&)/+1/'“#$%&'$(!。(&0&8&)“+ 1/(6“”&#6/86+ o!1p+ a)'+ B.)4)(&8)“ G+(。/'0 $ .46B+ s)。 &$ - '+ '68($。':+ 6/a)/86b+ b68&'&$/u 4)i&/#+ 5。 $ 86'6 '+)/B+)-($ 4) (&/#+8 $ 45 "6t+()' i'j+k6'5 & (6+& ('+5 $ (6/(&)"+F6/60 & (':+(A6+B65 "$ G46/(+$ 0+ 4) 8A &/6+"6) ./&/#+)"#$. & (A4 '+a)'+)&'6b+'&#/&0&0&8)/(+8 $/86 ./'+6#)。 b&#+f&)'+)/b+b&'8。&/)(&$/j+@a&'+5)56。+b6“ s6'+&/($+($ 4-”(a6+4-“(&0)86(6b+$。&#&#&/'+$ 0+$ 0+$ 0+$ f&+f&+&/+!1+&b)++a+a+a+a+a+a+a+'; h+(a6'6+。)4)/&06'(+&/+6)“ uh $。“ b+)55”&8)(&$/'+)/b+(a6&。+&45“&8)&8)(&$/'+0 $。+'$ 8&6()”+6v-&(gj+wg+)/)“ gl&/#+8)'gl&/#+8) &/'x'-8a+)'+a6)a&#a”&#a('+(a6+b6(a6+b6((a6.4 $ .6:+(a6+ 5)56。+ 5。$ 5 $'6'6'+)8(&$/)f“ 6+'(。)(6#&6'+ 0 $。+ 4&(&#)(&/#+ f&)':+&/8“ -b&/#+ b&s6。'6+ b)()+8 $“” 68(&$/:+)“#$。&(a4&8+) - b&/#:+)/b+(a6+6'()'6+)。 $ - /b+! 1:+(a&'+ 5)56。+ 645a)'&l6'+(a6+ 8。&(8)“+/66b+ 0 $。+ 6(a&8)(a&8)”+ 8 $/'&b6。)(&$/':+&/8“ - '&s&(g:+)/b+(。/'5).6/8G+&/+(A6+B6S6“ $ 546/(+)/B+B65” $ G46/(+$ 0+4)8a&/6+“ 6)./&&&&&&&&&&&&&&&&&&&&&#&#” $'(6。+)+4 $ .6+6v-&()f“ 6+!1+”)/b'8)56+(a)(+'6.s6'+)“”+464f6。“ gj + +!“#$%&'() +!“#$%$&$'() *+#,(($ - ,+&,。)/'&0 $+,)1,'“+$+ - 。)< /div>2 $'3.)4 $ 3&“ $ 5 $+'#$ 6+)4'#')2 $'3.)(-6“ $#05 $&)2 $'> 6(&$ 6+。)a,“ a6($&&&&&$&$&$&$+。)8C:$#<)++)!*。)!*)80 $&3。)d“'so,+&6:+#'f $($#<。)'+=)?#
简介:提出了各种用户训练来帮助用户完成运动想象(MI)BCI 任务,例如,使用正(有偏见)反馈(它是对一个人标记的大脑活动的乐观表示)已被证明可以提高表现[1]或学习[2]。相反,在[3]中,正反馈减少,而负反馈增加用户在一次会话中的学习。为了更好地理解有偏见的反馈对BCI训练期间的表现和学习的好处,我们考虑了用户状态,例如工作量和心流状态,一种最佳认知控制、沉浸和愉悦的状态,这些状态已被证明与表现相关[4]。材料、方法和结果:30名参与者(12名女性,平均年龄:28.56岁,SD:6.96)分为3组:1.无偏见,2.正偏见和3.负偏见,其中SVM分类器输出使用累积beta分布函数实时偏置。参与者参加了 2 个环节,每个环节包括校准(2 次运行)和测试(6 次运行)。一次运行包含每个类 20 次试验,持续约 5 分钟。用户使用左右手 MI 玩 Tux Racer 游戏。每次运行后,分别使用 NASA-TLX [5] 和 EduFlow [6] 问卷评估工作量和流动状态。在线表现被计算为分类器的峰值表现。学习率是环节内在线表现与运行的线性回归的斜率,例如高于零表示积极学习,而低于零表示学习下降。我们发现学习率在组×环节之间存在显着的相互作用(双向方差分析,p <0.01),图 1.A;但组间表现没有差异。我们发现流动状态与表现(Pearson's r = 0.30)和学习率(r = - 0.20)之间存在相关性(p <0.05,用 FDR 校正);工作量与绩效之间没有相关性,但与学习率有相关性(r=0.13)。最后,我们发现各组之间存在显著差异,EduFlow 分数的认知控制维度 p<0.05,如 [4] 图 1.B 所示。
人工智能(AI)已成为我们日常生活中不可或缺的一部分,从虚拟分析到推荐系统为各种应用提供了动力。但是,随着AI系统越来越多地与人互动并做出决定,对公平和偏见的担忧已经走向了最前沿。这些系统经常在大型数据集中受过培训,并不总是清楚地确保数据收集过程中数据质量的准则,可以无意中学习和延续这些数据集中存在的偏见,从而导致不公平的结果。一个众所周知的例子是美国刑事司法系统中使用的Compas系统,该系统预测被告再犯罪的可能性。Propublica的一项研究发现,该系统对非裔美国人被告有偏见,因为即使没有事先定罪,他们也更有可能被标记为高风险。应对这些挑战,AI研究界的一部分一直在探索各种策略,以确保偏见并确保公平。已经出现了大量方法,其中一些涉及重新处理用于培训此类系统的数据,而另一些方法涉及根据预定义的公平指标选择最佳模型,或者其他涉及为决策制定程序提供更透明的方法。而LLM是AI中最突出的突破之一,在广泛的
随着大型语言模型(LLM)的出现,具有越来越令人印象深刻的范围,已经提出了许多大型视觉模型(LVLM),以使LLM具有视觉输入。这样的模型在输入显示和文本提示下生成了文本,从而实现了各种用例,例如视觉问答和多模式聊天。虽然先前的研究检查了LLMS产生的文本中所包含的社会偏见,但该主题在LVLM中得到了相对尚未探索的。检查LVLMS中的社会偏见尤其具有挑战性,这是因为在文本和视觉方式中所包含的信息所产生的偏见的混乱贡献。为了解决这个挑战性问题,我们对不同的LVLM产生的文本进行了大规模研究,该文本在反事实上对输入图像进行了更改,从而从流行模型中提出了超过5700万个响应。我们的多维偏见评估框架表明,图像中描述的种族,性别和身体特征等社会属性可能会显着影响有毒内容,能力相关词,有害的立体类型以及个人的数值等级的产生。
1。在此提案中,针对哪些特定类型的偏见(例如性别,种族,文化)?答案:任何形式的社会偏见。2。的重点是否应该放在减轻培训数据,模型设计或输出中的偏见或三个?答案:这些子集。3。在缓解偏见和保持准确性之间应优先考虑什么平衡,以及这种平衡应与该提案的主要重点保持一致?答案:由表演者定义偏见准确权衡4。哪种类型的符号表示与该项目最相关(例如语法,本体,基于逻辑的系统),以及它们如何专门解决偏见?答案:其中任何一个都可以。他们如何特别解决偏见取决于表演者的提议。5。哪些神经体系结构是首选或最适用于该建议(例如变形金刚,经常性网络),为什么它们适合减轻偏见?答案:任何具有相关应用程序的模型,例如注意网络,堪萨斯州,LRMS…6。是否有任何首选数据集或应用程序域(例如,文本,图像,语音)来证明缓解偏差,还是该提案应涵盖多个域?答案:没有偏好7。概念验证是否应集中于重新训练现有的AI模型,还是提出主要修改或约束推理过程(例如解码)的方法是可以接受的?答案:两者都处于范围。8。答案:由表演者定义这些指标取决于表演者。在此提案中应如何衡量在缓解明确和隐性偏见方面的成功,并且是否建议进行评估的特定指标或基准?
A:社会偏见。统计偏见只有清楚这些偏见如何在社会偏见中表现出来。2。将如何确定偏见?是否有任何特定的指标,工具或数据集将用于定义和衡量偏见?a:由表演者定义这些内容3。对模型的大小或类型是否有任何约束(例如,诸如GPT或较小域特异性模型(如Llama-7b)等大型模型)?A:无约束4。我们是否允许将多种技术(例如模块化附加组件和概念空间分析)组合到混合方法中?A:是5。提议的解决方案是否应该完全新颖,还是可以接受现有方法的适应?a:优选创新的解决方案。如果提出的解决方案是增量的,则必须对解决方案的影响做出强有力的理由6。是否偏爱可以在多个域上推广的方法或用于单个域的高度专业化?A:没有偏好