人工智能时代科学责任的无声崩溃

无人问的问题 在各科学领域急于采用人工智能的过程中,一场悄然但震撼的转变正在发生:研究人员不再提出科学中最重要的问题——“这可信吗?” Zenith AI 创始人 Nuzhat Noor Islam Prova 是一位数据科学家,也是超过 350 份手稿的同行评审员,[...]

来源:AI Time Journal

没人问的问题

在各科学领域急于采用人工智能的过程中,一场悄然但震撼的转变正在发生:研究人员不再提出科学中最本质的问题——“这可信吗?”

“这可信吗?”

Zenith AI 创始人 Nuzhat Noor Islam Prova 是一位数据科学家,也是超过 350 份手稿的同行评审员,其中包括 100 多个 IEEE 和 Springer 场所,例如 IEEE Access 和 Machine Learning with Applications。她发表了超过 45 篇经过同行评审的论文,其中包括几篇发表在顶级 Q1 期刊上的论文,她从一个很少有人占据的有利位置见证了这一事件的真相。

真力时人工智能 350 篇手稿 45 篇同行评审论文 第一季度期刊

在涉及医疗保健、农业和预测建模的数百项研究中,她注意到了一种模式:算法越先进,对其假设、局限性或失败提出的问题就越少。其后果正在日益严重。

预测建模

没有责任的准确性

人工智能模型现已成为诊断癌症、预测疾病爆发、甚至指导国家农业决策的常规工具。然而,尽管准确性指标飙升,但科学审查却在退却。

“我们看到疾病分类器的准确率达到了 97%,”Prova 说,“但没有提及它在女性、有色人种或较差的成像设备上是否更容易失败。没有提及它在实验室外的表现。这不是科学。这是舞台表现——没有意义的指标。”

Prova 自己的工作已在国际上发表和引用,涵盖了结核病检测、结肠癌分类和医疗欺诈检测等领域的高影响力人工智能系统。她的水稻分类模型作为独立作者发表在第一季度期刊上,已经影响了多个国家的实时农业框架。

但她的独特之处不仅在于模型的准确性,还在于她坚持认为仅靠准确性是不够的。

她的农业研究就是一个典型的例子

结核病 制定