1宾夕法尼亚州立大学生物学系,宾夕法尼亚州16802,美国公园; 2加拿大魁北克G1V0A6的魁北克省拉瓦尔大学运营与决策系统部; 3魁北克 - 魁北克魁北克大学魁北克G1V4G2,加拿大魁北克大学拉瓦尔大学研究中心的人口健康与最佳健康实践; 4宾夕法尼亚州立大学医学基因组学中心,美国宾夕法尼亚州大学公园16802,美国; 5美国国家卫生研究院NCI-CCR细胞生物学实验室,美国贝塞斯达,马里兰州20892,美国; 6美国宾夕法尼亚州立公园,宾夕法尼亚州立大学生物化学与分子生物学系,美国16802; 7 Masaryk University Informatics学院,捷克共和国Brno 60200; 8宾夕法尼亚州立大学医学院病理学系,美国赫尔希,宾夕法尼亚州17033; 9宾夕法尼亚州公园,宾夕法尼亚州16802,宾夕法尼亚州立大学统计系; 10经济学研究所和L'Emeds,Sant'Anna Anna高级研究学院,PISA 56127,意大利
这位获奖者最近的兴趣之一是将机器学习应用于经济学。在多个参与者将决策委托给同一系统的情况下,推荐系统必须能够适应以避免拥堵。例如,一个拥有数十万居民的城镇中使用的 GPS 应用程序可能会同时向一千名用户推荐同一条去机场的路线,从而导致交通拥堵。乔丹正在努力开发机器学习系统来克服这个问题,反映人们的偏好,同时允许他们在同一系统内协作(例如,选择替代路线以减少每条路线上的交通拥堵)。“我们的目标是让人们和决策系统一起工作,找到对每个人都有价值或合适的解决方案。这是经济学家会考虑的事情,”他在一次采访中解释道。“这并不是要收集大量的知识,了解世界的一切并告诉我们答案。更多的是让我们更好地联系,这样我们就可以彼此获得更多,更有效地合作。我想赋予人类权力,而不是让人工智能告诉人类该做什么。”
几乎花了一个完整的欧盟立法机关来构思,发展并最终通过平台工作的欧盟指令。在社会对话咨询之后,委员会于2021年12月提出了一项立法提案,并提出了两个基本原则。首先,有必要进行新颖的工具,以避免平台工人错误分类的常见风险。后者的确倾向于根据(伪造)自雇模型参与。通常,这剥夺了他们的劳动保护,并使他们持pres可危和脆弱性。第二,将自动监控和自动化决策系统(ADMS)集成到工作场所被认为是工人新风险的来源。这种数据驱动的基础架构都会放大和混淆传统的管理特权。数字平台已经采用,经过测试和微调的实践,对不断的监视,反复无常的管理,不可预测的安排和不透明的纪律。这样的增强雇主权力是一个关键的法律挑战,因为它以较不明显的和更倾斜的特权代替了传统的命令和控制方法。这取代了更熟悉的控制
任命教授 - 华盛顿大学9月23日 - 现任Paul G.艾伦计算机科学与工程人员研究员研究科学家 - 谷歌 - 西雅图,华盛顿州西雅图,3月22日 - 9月24日 - 华盛顿副教授 - 华盛顿大学1月19日 - 9月19日 - 9月23日 - 保罗·G·艾伦艾伦计算机科学科学访问学者 - Google cloud Ai,Cloud Ai Inl Inlina -Inlina and Intrina and Intriona counteraime -dec 18i机 - GROUGE AIR -INTINA工业和企业系统工程助理教授 - 伊利诺伊大学Urbana -Champaign 7月12日至8月18日工业和企业系统工程系,马萨诸塞州剑桥市剑桥市剑桥市,美国马萨诸塞州剑桥市,1月11日至7月12日至7月12日,在信息和决策系统实验室研究员:Devavrat Shah Shah Shah Shah Shah
本文首先概述了 ODR 的历史,并介绍了 Lodder 和 Zeleznikow 的三步 ODR 模型。然后,它探讨了人工智能在争议解决中的作用,并简要介绍了人工智能的历史。接下来,本文对两种利用人工智能技术的主要 ODR 工具进行了比较,并讨论了正念及其与调解的相关性。最后,本文介绍了一种结合人工智能和正念的新型 ODR 工具,利用两者的优势为争议方提供更有效、更有同理心的调解服务。所提出的 ODR 模型基于一种混合方法,将不同形式的人工智能与正念相结合,例如非评判性意识和富有同情心的沟通。该模型涉及使用聊天机器人进行初步沟通,使用机器学习算法进行案例评估和推荐,以及基于正念和原则的决策系统来解决争议。所提出的 ODR 模型有可能提供公平、高效且具有成本效益的争议解决程序。然而,需要进一步研究来评估其有效性和用户接受度。
网络科学同行社区 doi:https://doi.org/10.24072/pci.networksci.100002 摘要 虽然集体决策(例如投票系统)是人类社会的基础,但正如过去的气候政策所表明的那样,它可能会导致效率低下的决策。当前的系统因其考虑选民需求和知识的方式而受到严厉批评。集体决策是人类社会的核心,但也发生在动物群体中,主要是当动物需要选择何时何地移动时。在这些社会中,动物在群体成员的需求和自身需求之间取得平衡,并依赖每个人的(部分)知识。我们认为,非人类动物和人类有着相似的集体决策过程,其中包括议程设置、审议和投票。人工智能领域最近的研究试图改善人类群体的决策,有时受到动物决策系统的启发。我们在这里讨论了我们的社会如何从动物行为学和人工智能的最新进展中受益,以改善我们的集体决策系统。关键词:集体决策、投票、民主、代表性、机器学习
在我们今天生活的数字时代,网络安全已成为一个需要创新的主要问题。数据科学和人工智能 (AI) 在改变我们理解和应对网络威胁的方式方面发挥了核心作用。本研究将回顾这项技术创新在提高组织检测、预防和应对网络攻击的能力方面的重要作用。在开发适当的基于数据的模型的同时,识别网络数据中的安全事件模式并获得洞察力是实现自动化和智能安全系统的关键要素。本研究回顾了网络安全领域可以通过人工智能 (AI) 技术解决的需求。在本研究中,我们采用定量方法来评估人工智能对增强网络安全的影响,方法是向 85 名受访者分发调查问卷,其中包括银行和 IT 行业的公司。此外,本研究将探讨基于数据的智能决策系统如何保护系统免受已知和未知的网络攻击。本研究将通过考虑人工智能和网络安全的未来潜力来结束。关键词:人工智能、网络安全、创新、安全系统
摘要:通过算法决策系统在各个领域的传播,人们对它们的不透明和潜在的道德后果的关注得到了提高。通过促进可解释的机器学习模型的使用,本研究解决了这些系统中开放性和道德责任的关键要求。可解释的模型提供了对决策的制定方式的透明且可理解的描述,而不是复杂的黑盒算法。用户和利益相关者需要这种开放性,以便理解,验证和负责这些算法的决定。此外,可解释性通过使检测和减少偏见更容易促进算法结果中的公平性。在本文中,我们概述了算法不透明度带来的困难,强调了在各种环境中解决这些困难的关键,包括涉及医疗保健,银行业,刑事司法等的困难。从线性模型到基于规则的系统再到替代模型,我们对可解释的机器学习技术进行了彻底的分析,突出了它们的好处和缺点。我们建议,将可解释的模型纳入算法的设计和使用可能会导致AI在社会中更负责任和道德应用,最终使人们和社区受益,同时降低与不透明决策过程相关的风险。
神经网络回归已有 10 年。在这一周年纪念日的推动下,我们对人工智能 (AI) 采取了整体视角。认知任务的监督学习得到了有效解决——前提是我们拥有足够高质量的标记数据。然而,深度神经网络模型不易解释,因此黑盒和白盒建模之间的争论成为了焦点。注意力网络、自我监督学习、生成建模和图神经网络的兴起拓宽了人工智能的应用空间。深度学习也推动了强化学习作为自主决策系统核心构建块的回归。新人工智能技术可能带来的危害引发了透明度、公平性和问责制等社会技术问题。控制人才、计算资源以及最重要的数据的大型科技公司在人工智能领域的主导地位可能会导致人工智能的极端分化。尽管人工智能驱动的对话代理最近取得了戏剧性和出人意料的成功,但备受瞩目的旗舰项目(如自动驾驶汽车)的进展仍然难以捉摸。必须小心调节该领域的言论,并使工程进步与科学原理保持一致。
神经网络回归已有 10 年。在这一周年纪念日的推动下,我们对人工智能 (AI) 采取了整体视角。认知任务的监督学习得到了有效解决——前提是我们拥有足够高质量的标记数据。然而,深度神经网络模型不易解释,因此黑盒和白盒建模之间的争论成为了焦点。注意力网络、自我监督学习、生成建模和图神经网络的兴起拓宽了人工智能的应用空间。深度学习也推动了强化学习作为自主决策系统核心构建块的回归。新人工智能技术可能带来的危害引发了透明度、公平性和问责制等社会技术问题。控制人才、计算资源以及最重要的数据的大型科技公司在人工智能领域的主导地位可能会导致极端的人工智能鸿沟。尽管最近人工智能驱动的对话代理取得了戏剧性和出人意料的成功,但自动驾驶汽车等备受瞩目的旗舰项目的进展仍然难以捉摸。必须注意缓和围绕该领域的言论,并使工程进展与科学原理保持一致。
