技术出版物。已完成研究或重要研究阶段的报告,介绍 NASA 项目的结果,并包含大量数据或理论分析。包括被认为具有持续参考价值的重要科学和技术数据和信息的汇编。NASA 的同行评审正式专业论文的对应文件,但对手稿长度和图形演示范围的限制不那么严格。
摘要:人们越来越认识到人工智能 (AI) 的政治、社会、经济和战略影响的重要性。这引发了有关人工智能编程、使用和监管的重要伦理问题。本文认为,人工智能的编程和应用本质上都是 (顺) 性别化、性化和种族化的。毕竟,人工智能是由人类编程的,因此,谁来训练人工智能、教它学习以及这样做的伦理问题对于避免 (顺) 性别化和种族主义刻板印象的重现至关重要。本文的实证重点是欧盟资助的 iBorderCtrl 项目,该项目旨在通过实施多种基于人工智能的技术(包括面部识别和欺骗检测)来管理安全风险并提高第三国国民的过境速度。本文汇集了 1) 风险与安全 2) 人工智能与道德/移民/庇护以及 3) 种族、性别、(不)安全与人工智能等领域的文献,探讨了谎言检测对常规过境和难民保护的影响,概念重点关注性别、性取向和种族的交叉点。我们在此认为,iBorderCtrl 等人工智能边境技术存在重大风险,不仅会进一步边缘化和歧视 LGBT 人士、有色人种和寻求庇护者,还会强化现有的非入境做法和政策。
文章标题:人工智能(AI)在医疗保健中的应用:综述 作者:Mohammed Yousef Shaheen[1] 所属机构:沙特阿拉伯[1] Orcid ids:0000-0002-2993-2632[1] 联系电子邮件:yiroyo1235@tmednews.com 许可信息:本作品已根据知识共享署名许可 http://creativecommons.org/licenses/by/4.0/ 以开放获取的方式发表,允许在任何媒体中不受限制地使用、分发和复制,只要正确引用原始作品即可。使用条款和出版政策可在 https://www.scienceopen.com/ 上找到。预印本声明:本文为预印本,尚未经过同行评审,正在考虑并提交给 ScienceOpen Preprints 进行开放同行评审。DOI:10.14293/S2199-1006.1.SOR-.PPVRY8K.v1 预印本首次在线发布:2021 年 9 月 25 日
• 如何将 Digifed 在照明、可靠性测试和自动驾驶汽车方面的能力用作项目的一部分,同时利用 DigiFed 合作伙伴来最大化您的提案分数:卓越、影响力、实施质量(45 分钟)
当今职场上,最大的问题莫过于人工智能会创造还是摧毁就业机会,以及这种颠覆会以何种形式出现。9 月,Indeed Hiring Lab 3 的经济学家发布了第一轮研究报告,研究哪些行业最有可能受到 ChatGPT 等生成式人工智能技术的影响。他们分析了来自 5500 多万条 Indeed 招聘信息的 2600 项技能,以评估 ChatGPT 执行每项任务的能力。研究发现,近 20% 的工作具有“高曝光率”,生成式人工智能在执行该工作所需技能的 80% 或更多时被评为“良好”或“优秀”。另外 45% 的工作具有“中等曝光率”,人工智能可以有效执行 50% 到 80% 的必要技能。总而言之,近三分之二的工作所需技能中有一半以上都可以由生成式人工智能完成,至少可以相当好地完成。
自然光未校准光度立体 (NaUPS) 减轻了传统未校准光度立体 (UPS) 方法中严格的环境和光线假设。然而,由于内在的不适定性和高维模糊性,解决 NaUPS 仍然是一个悬而未决的问题。现有工作对环境光和物体材质施加了强有力的假设,限制了更一般场景中的有效性。或者,一些方法利用复杂模型的监督学习,但缺乏可解释性,导致估计有偏差。在这项工作中,我们提出了自旋光未校准光度立体 (Spin-UP),这是一种无监督方法,用于解决各种环境光和物体中的 NaUPS。所提出的方法使用一种新颖的设置,在可旋转的平台上捕获物体的图像,通过减少未知数来减轻 NaUPS 的不适定性,并提供可靠的先验来缓解 NaUPS 的模糊性。利用神经逆向渲染和所提出的训练策略,Spin-UP 可以以较低的计算成本恢复复杂自然光下的表面法线、环境光和各向同性反射率。实验表明,Spin-UP 优于其他监督/无监督 NaUPS 方法,并在合成和真实世界数据集上实现了最先进的性能。代码和数据可在 https://github.com/LMozart/CVPR2024-SpinUP 获得。
1.“人工智能的 FDA” 是一个直白的比喻。一个更有成效的起点是研究 FDA 式的监管干预措施,以及它们如何针对人工智能供应链中的不同点。2.FDA 式的干预措施可能更适合人工智能供应链的某些部分。3.FDA 模式为优化信息生产而非产品安全的监管设计提供了有力的教训。鉴于市场参与者缺乏明确性以及人工智能开发和部署的结构不透明性,人工智能迫切需要这一点。4.对什么算作功效(而不是安全性)缺乏共识是监管人工智能的有力切入点。人工智能总是存在潜在危害;因此,监管问题必须考虑其好处是否大于危害。但要知道这一点,我们需要明确的证据(目前我们缺乏这些证据)来证明人工智能技术带来的具体好处。5.上市前批准可能是监管干预最有力的阶段:这是监管权力与公司遵守激励之间的协调达到顶峰的地方。6.无论是在 FDA 还是在人工智能中,确保产品进入市场后的下游合规性都是一项监管挑战。鉴于人工智能系统组件的来源各异,上市后监管对人工智能来说是一项挑战,但目前这是正在进行的人工智能监管执法的主要特征。7.8.目前,“人工智能市场”的构成尚不明确且不透明。任何针对人工智能领域的监管干预要想有效,都必须远远超出目前的处罚标准,对世界上一些最大的公司进行有意义的挑战。提高市场本身的透明度以及人工智能产品的销售过程对人工智能治理至关重要。9.监管机构的资金模式对其有效性至关重要,并且可能无意中使监管机构受制于行业动机。10.FDA 式的人工智能文档要求已经是
下午好,舒默领袖、朗兹参议员、海因里希参议员和杨参议员。感谢您今天有机会与大家谈论影响深远的人工智能。我叫玛格丽特·米切尔,是人工智能初创公司 Hugging Face 的人工智能研究员和首席伦理科学家。过去 18 年来,我一直在学术研究实验室和私营科技公司从事现在所谓的“人工智能”工作。我致力于在整个科技行业实施符合道德规范的人工智能,包括两家“大型科技”公司微软和谷歌,以及最大的初创企业和学者开放社区平台 Hugging Face。我的道德工作重点是如何在整个人工智能开发过程中识别隐含的价值观和偏见,以及这些如何影响受人工智能系统影响的人。我的工作让我明白,评估人工智能系统对权利的影响至关重要,包括人权、公民权利和文化权利。它还让我明白,严谨、健全的文档,清晰阐述系统可能用于的任务、如何在不同情况下使用,以及评估系统在这些不同情况下的表现如何,是推动人工智能与人类价值观保持一致,同时最大限度地减少对个人的潜在伤害的关键。
方法这项研究得到了卫生科学大学伦理委员会的批准(批准号:2021.11.251,日期:2021年12月20日)。从所有临时患者中获得书面知情同意。由皮肤科部门组成,并在2020年6月至2021年8月之间由皮肤科部门进行了总共254例患者及其皮肤活检。从医院记录和病理报告中明显地收集了临床和病理数据。从医院记录中获得了患者信息,包括年龄,性别,活检位置和前临床诊断。Preliminary clinical diagnoses were grouped as follows: group 1 (erythematous scaly patch, papule and plaque, tumor, erythro- derma), group 2 (petechiae, purpura), group 3 (pigmentation dis- order), group 4 (follicular involvement), and group 5 (other, such as alopecia, atrophy/poikiloderma, nonspecified病变)。在患者表现出多种临床模式的情况下,他们被视为“单个”或“多个”临床表现。由于某些患者有多次临床表现,因此1例患者可能会超过1组。在初步临床诊断中诊断为MF的患者根据诊断顺序分为组:“第一”,“第二”,“第三”或“第四及以上”。