集成机器学习 ● 声明式数据流架构(计算结构与执行分离) ● >200K LOC,> 1000 次引用 ● 2017 年左右停止积极开发
截至 2023 年初,生成式人工智能已成为流行文化和科技行业的热门话题。多个网站允许用户写一个句子并返回一张描绘用户所写内容的图像。有些网站免费提供这项服务,而有些网站则要求用户为这项服务付费。2023 年 1 月 23 日,微软宣布向发明 ChatGPT 和 DALL-E[12][13] 的人工智能研究实验室 OpenAI 投资数十亿美元,这意味着人工智能领域的重要性和潜力。人工智能已经在医疗保健、制造业、零售业和银行业等许多行业得到应用。相对较新的文本到图像生成式人工智能领域(见第 2.1 节)进一步扩展了人工智能的使用领域。我们在本文中研究的一个潜在应用领域是用户体验设计(从现在开始称为 UX)。例如,正在从事 Web 应用程序项目的 UX 设计师或学生可能会发现创建可作为初稿并进一步改进的模拟用户界面很有用。
OpenAI 于 2022 年 11 月启动的 ChatGPT 引发了关于人工智能对高等教育影响的重要讨论。当学生使用它来撰写论文时,它打破了现状。与谷歌的 Gemini 和微软的 Copilot 一样,OpenAI 的 ChatGPT 是能够模仿人类对话的强大大型语言模型 (LLM) 的典型示例。大型语言模型在识别语言模式和预测上下文单词方面表现出色,并且擅长以最少的用户输入生成连贯且相关的文本响应。通过利用其广泛的训练语言模式数据库,大型语言模型可以提供准确反映用户输入上下文的生成文本响应。凭借对语言的掌握,他们可以创作创意诗歌,撰写全面连贯的文章,深入分析主题,并有说服力地提出论点。
RELX 立场 作为知识产权所有者和他人知识产权的合法使用者,RELX 认为,当前强大而灵活的许可制度是确保数据在人工智能开发过程中流动的最佳方式,同时还能奖励和激励对知识产权的投资。此外,我们认为,扩大版权法中的例外情况以允许不受限制地将作品用于人工智能开发目的会破坏该制度,抑制对数据收集的投资,并引发对数据保护和安全的进一步担忧。如果要产生有用的结果,人工智能系统必须接受可靠数据的训练和操作;确保数据质量的最佳方法是通过一个保持生产激励的版权制度。
人工智能持续快速发展,引发人们对人工意识的思考。以人为中心的理解认为意识是人类独有的特征,其他生物不具备这种特征。然而,软件和硬件的发展展示了处理、分析和推断越来越全面的数据的能力,接近人脑性能的图像。此外,人工智能应用于可以与人类交流的人性化物体,唤起了这些物体中意识的存在。本文讨论了人形机器人中人工意识的存在,这是人工智能的进化延续。它估计了它对建筑的影响,主要是在室内设计方面。意识在建筑中占有特殊的地位,因为它指导工程中的智能并将其带到抽象层面,例如美学。本文从互联网对话和已有科学期刊的理论中提取了热门信息。本文得出结论,双方的适应性以及未来双方立场的平衡将影响人工智能与人类融合的室内设计方法的发展。
我们已审查了您根据第 510(k) 条提交的上述器械上市前意向通知,并确定该器械与 1976 年 5 月 28 日(即《医疗器械修正案》颁布日期)之前在州际贸易中合法销售的同类器械或已根据《联邦食品、药品和化妆品法案》(法案)的规定重新分类且无需获得上市前批准申请 (PMA) 批准的器械基本相同(就附件中所述的使用指征而言)。因此,您可以根据法案的一般控制规定销售该器械。虽然这封信将您的产品称为器械,但请注意,一些已获准的产品可能是组合产品。位于 https://www.accessdata.fda.gov/scripts/cdrh/cfdocs/cfpmn/pmn.cfm 的 510(k) 上市前通知数据库可识别组合产品提交。该法案的一般控制条款包括年度注册、设备清单、良好生产规范、标签以及禁止贴错标签和掺假的要求。请注意:CDRH 不评估与合同责任担保相关的信息。但是,我们提醒您,设备标签必须真实,不得误导。
摘要 算法系统和人工智能在新闻制作中的日益普及引发了人们对记者是否有能力以不违背新闻规范和价值观的方式理解和使用它们的能力的担忧。这种“可理解性”问题对于公共服务媒体来说尤其严重,因为这种复杂而不透明的系统可能会扰乱问责制、决策和专业判断。本文通过文件分析和对 14 名记者的访谈,概述了人工智能在 BBC 新闻制作中的部署,并分析了记者如何理解人工智能和算法。我们发现日益普及的人工智能与 BBC 记者的理解水平之间存在脱节,他们用猜测和想象来代替对这些技术的准确概念。这可能会限制记者有效和负责任地使用人工智能系统的能力,质疑其产出和在新闻制作中的作用,或者适应和塑造它们,也可能妨碍对人工智能如何影响社会进行负责任的报道。我们建议 PSM 在个人、组织和社区三个层面制定促进人工智能可理解性和素养的策略,并且我们从社会文化角度而不是单纯的技术角度重新定义人工智能可理解性问题,以便更好地解决规范性考虑。
摘要。尽管即使是非常先进的人工系统也无法满足人类成为社会互动适当参与者所需的苛刻条件,但我们认为并非所有人机交互 (HMI) 都可以适当地简化为单纯的工具使用。通过批评标准意向性主体解释的过于苛刻的条件,我们建议采用一种最小方法,将最小主体归因于某些人工系统,从而提出将采取最小联合行动作为社会 HMI 的案例。在分析此类 HMI 时,我们利用了丹尼特的立场认识论,并认为出于多种原因,采取意向性立场或设计立场可能会产生误导,因此我们建议引入一种能够捕捉社会 HMI 的新立场——人工智能立场。
Vector Institute)、Vijay Janapa Reddi(哈佛大学)、G Anthony Reina(在英特尔任职期间做出贡献)、