科技行业将在 2024 年大选中打击人工智能欺骗性使用 20 家领先的科技公司,包括 Adobe、亚马逊、谷歌、IBM、Meta、微软、OpenAI、TikTok 和 X 承诺共同努力检测和打击有害的人工智能内容 慕尼黑——2024 年 2 月 16 日——今天,在慕尼黑安全会议 (MSC) 上,领先的科技公司承诺帮助防止欺骗性人工智能内容干扰今年的全球大选,超过 40 个国家的 40 多亿人将参加投票。“2024 年大选打击人工智能欺骗性使用技术协议”是一系列承诺,旨在部署技术打击旨在欺骗选民的有害人工智能生成内容。签署方承诺合作开发工具来检测和解决此类人工智能内容的在线分发,推动教育活动,并提供透明度,以及采取其他具体步骤。它还包括一系列广泛的原则,包括追踪欺骗性选举相关内容来源的重要性以及提高公众对这一问题的认识的必要性。该协议是保护网络社区免受有害人工智能内容侵害的重要一步,并以各个公司正在进行的工作为基础。该协议涉及的数字内容包括人工智能生成的音频、视频和图像,这些内容以欺骗性的方式伪造或改变政治候选人、选举官员和民主选举中其他关键利益相关者的外表、声音或行为,或向选民提供有关何时、何地和如何投票的虚假信息。截至今天,签署方包括:Adobe、亚马逊、Anthropic、Arm、ElevenLabs、谷歌、IBM、Inflection AI、LinkedIn、迈克菲、Meta、微软、Nota、OpenAI、Snap Inc.、Stability AI、TikTok、趋势科技、Truepic 和 X。参与公司同意了八项具体承诺:
背景:大型语言模型 (LLM) 在处理临床信息方面表现出了先进的性能。然而,市面上可用的 LLM 缺乏专业的医学知识,仍然容易产生不准确的信息。鉴于糖尿病需要自我管理,患者通常会在网上寻求信息。我们引入了检索增强信息系统 (RISE) 框架,并评估了其在增强 LLM 以准确响应糖尿病相关咨询方面的性能。目的:本研究旨在评估 RISE 框架(一种信息检索和增强工具)在提高 LLM 性能以准确安全地响应糖尿病相关咨询方面的潜力。方法:RISE 是一种创新的检索增强框架,包括 4 个步骤:重写查询、信息检索、总结和执行。使用一组 43 个常见的糖尿病相关问题,我们分别评估了 3 个基础 LLM(GPT-4、Anthropic Claude 2、Google Bard)及其 RISE 增强版本。临床医生评估准确性和全面性,患者评估可理解性。结果:RISE 的整合显著提高了所有 3 个基本 LLM 的回答的准确性和全面性。平均而言,使用 RISE 后,准确回答的百分比增加了 12% (15/129)。具体而言,GPT-4 的准确回答率增加了 7% (3/43),Claude 2 的准确回答率增加了 19% (8/43),Google Bard 的准确回答率增加了 9% (4/43)。该框架还提高了回答的全面性,平均分数提高了 0.44(SD 0.10)。可理解性也平均提高了 0.19(SD 0.13)。数据收集时间为 2023 年 9 月 30 日至 2024 年 2 月 5 日。结论:RISE 显著提高了 LLM 在回答糖尿病相关询问方面的表现,提高了准确性、全面性和可理解性。这些改进对于RISE未来在患者教育和慢性病自我管理方面的作用具有重要意义,有助于缓解医疗资源压力并提高公众对医学知识的认识。
•AWS上的生成AI:各种规模和类型的组织都利用大型语言模型(LLM)和基础模型(FMS)构建生成的AI应用程序,以提供新的客户和员工体验。With enterprise-grade security and privacy, access to industry-leading FMs, and generative AI-powered applications, AWS makes it easy to build and scale generative AI customized for your data, your use cases, and your customers • Amazon Bedrock : Fully managed service that offers a choice of high-performing foundation models (FMs) from leading AI companies like AI21 Labs, Anthropic, Cohere, Meta, Stability AI, and亚马逊通过单个API,以及构建生成AI应用程序的广泛功能。使用Amazon Bedrock,您可以轻松地尝试并评估用例的顶级FMS,并使用诸如微调和检索增强生成(RAG)等技术私下对其进行私人自定义,并构建使用enterprise系统和数据源执行任务的媒介。文档,介绍亚马逊基岩•亚马逊萨吉式制造商:完全管理的机器学习服务。它旨在使开发人员和数据科学家更容易按大规模构建,训练和部署机器学习模型。它提供了常见的机器学习算法,这些算法将在分布式环境中进行优化以有效地与极大的数据进行优化。为了使开始更容易,Amazon Sagemaker JumpStart为最常见的用例提供了一组解决方案,只需单击几下即可轻松部署。文档文档,•Amazon Q:Amazon Q生成代码,测试,调试,并且具有多步规划和推理功能,可以转换和实现从开发人员请求生成的新代码。Amazon Q还使员工更容易通过与企业数据存储库相连接,以便通过逻辑上总结数据,分析趋势并参与对话的数据,从而使员工更容易获得跨业务数据的答案,例如公司政策,产品信息,业务结果,代码基础,员工和许多其他主题。
亚洲农业和林业研究杂志5(3):42-52,2020;第56439号文章ISSN:2581-7418文化实践,社会经济水平和环境对尼日尔(西非菲尼克斯·戴克利弗拉(Phoenix dactylifera L.)的盈利能力的影响(西非) ,Oumar Hissein Abba-Mahmoud 3,Nathalie Chabrillange 4,FrédériqueAberlenc-Bertossi 4和Yacoubou bakasso 1 1生物学系,科学和技术学院,尼日尔·尼亚尼市Abdou Moumouni University。2尼日尔Zinder大学科学与技术学院。 3乍得农艺发展研究所,乍得。 4法国蒙彼利埃的开发研究所。 作者的贡献这项工作是在所有作者之间合作进行的。 作者Mlai设计了这项研究,进行了统计分析,编写了协议并写了手稿的初稿。 作者OZ和MMI管理了研究的分析。 所有作者都阅读并批准了最终手稿。 文章信息doi:10.9734/ajraf/2020/v5i330088编辑(S):(1)Cengiz Yucedag博士,Mehmet Akif Akif ersoy University,土耳其。 审稿人:(1)乌干达布卡拉萨农业学院的化学玫瑰念珠。 (2)巴基斯坦农业大学的阿曼·巴蒂(Aman Bhatti)。 (3)土耳其卡斯塔莫努大学的艾哈梅·西瓦西奥鲁(AhmetSivacioğlu)。 然而,很少有研究量化了西非萨赫勒的日期棕榈种植的驱动因素及其社会经济和环境利益。2尼日尔Zinder大学科学与技术学院。3乍得农艺发展研究所,乍得。4法国蒙彼利埃的开发研究所。作者的贡献这项工作是在所有作者之间合作进行的。作者Mlai设计了这项研究,进行了统计分析,编写了协议并写了手稿的初稿。作者OZ和MMI管理了研究的分析。所有作者都阅读并批准了最终手稿。文章信息doi:10.9734/ajraf/2020/v5i330088编辑(S):(1)Cengiz Yucedag博士,Mehmet Akif Akif ersoy University,土耳其。审稿人:(1)乌干达布卡拉萨农业学院的化学玫瑰念珠。(2)巴基斯坦农业大学的阿曼·巴蒂(Aman Bhatti)。(3)土耳其卡斯塔莫努大学的艾哈梅·西瓦西奥鲁(AhmetSivacioğlu)。然而,很少有研究量化了西非萨赫勒的日期棕榈种植的驱动因素及其社会经济和环境利益。完整的同行评审历史记录:http://www.sdiarticle4.com/review-history/56439 2020年2月20日接受接受,2020年4月27日接受于2020年5月6日出版于2020年5月6日摘要phoeniccrulture,或者日期棕榈种植起着主要的社会经济和生态学作用。因此,这项研究评估了人类和环境因素对尼日尔的定量和定性生产的影响。我们进行了一项民族植物学调查,以收集尼日尔的萨哈利亚和撒哈拉派地区的数据。我们使用置换回归测试来评估气候条件的影响,富达
测绘学是一个新词,即使尚未被普遍接受,其使用也正变得越来越广泛。它包括研究地球表面及其环境的多种学科和技术,计算机科学起着决定性的作用。更有意义和更合适的表达是地理空间信息或地理信息。地理空间信息将地形嵌入其更现代的形式(使用电子仪器测量、复杂的数据分析和网络补偿技术、全球卫星定位技术、激光扫描等)、分析和数字摄影测量、卫星和机载遥感、数值制图、地理信息系统、决策支持系统、WebGIS 等。这些专业领域在基础科学和追求的结果方面都紧密相关:严格的分离不允许我们发现几个共同的方面和在复杂的调查环境中寻找解决方案时所假设的根本重要性。 Mario A. Gomarasca 的目标看似不大,他的目标是出版一本关于测量主题的综合性教材,其中包含与地理空间信息专家和/或特别是构成该主题的学科之一相关的简单易懂的概念。同时,这本书严谨而综合,精确描述了与多种测量相关的主要仪器和方法
•DeepSeek似乎比其他前沿模型更有效地训练了45倍的型号。清楚,DeepSeek的大多数方法已经存在。这是最大的成就:面对筹码禁令,弄清楚如何立即部署它们,并介绍其自身的自我增强学习•专家的混合:GPT-3.5使用其整个模型来解决培训和推理,尽管可能只需要一小部分模型。相比之下,GPT-4和DeepSeek是专家(MOE)模型的混合物,它们仅激活解决每个问题所需的模型的各个部分。DeepSeek V3的参数为6,710亿个,但在任何给定时间中只有370亿个活动•MLA是指“多头潜能”,这是对DeepSeek保持较小的存储器的行话,而在运行的过程中,•其他deepseek效率方法在运行•与BF16或FP3精确的过程中存储的其他deepseek效率方法,这些方法是供应fp3的精确量,它们是精确的。模型还使用多言语预测(MTP),而不仅仅是预测下一代币,这将准确性降低了约10%,但提出速度却增加了一倍,但DeepSeek声称V3非常便宜,需要2.7毫米H800 GPU小时,这是$ 2/GPU时的费用,只需$ 2/GPU时,只有5600万美元2美元。Llama 3.1 405B最终训练运行的GPU小时数量可比数量高约10倍3。需要进行更多的分析来确定这种过度专业化是否是一个更广泛的问题•DeepSeek今天早上刚刚宣布了另一个版本:多模式模型(文本,图像生成和解释)。DeepSeek明确指出,这是最终培训的成本,不包括“与先前的研究和消融实验相关的架构,算法或数据相关的成本”•DeepSeek V3性能与OpenAI的4O和Anthropic的SONNET-3.5竞争,并且似乎比Llama最大的培训成本更好。DeepSeek提供的API访问为每百万个令牌0.14美元,而Openai则收取每百万个令牌4 $ 750;也许某种程度的损失领导者定价•DeepSeek可能“过度指定”其模型:它在MMLU基准测试上做得很好,但是当问题略有变化时,其性能的下降速度比其他型号更快。毫不奇怪,DeepSeek不假装数据隐私并存储所有内容
在过去的几年中,新的人工智能(AI)应用程序称为“生成AI”已变得有用和流行。这些AI模型因其从文本提示中获得文本,图像和视频的能力而闻名。生成模型是机器学习模型(特别是基于变压器的深神经网络),对数据进行了培训,以学习关键模式和关系,并生成具有相似特征的输出。常见应用程序涉及用户以自然语言输入提示以生成外数。其中包括来自大语言模型(LLM)的文本输出,包括Openai's Chatgpt,Anthropic的Claude,Google的Bard,Microsoft的Copilot和Meta的Llama,以及Open AI的Dall-E,稳定的稳定扩散和Midjourney的图像输出。这些新的生成AI应用程序提出了许多原始内容提供商的版权问题。具体来说,这些疑虑考虑了在培训数据中使用受复制保护内容的使用。一个关键问题是,在版权法中,是否使用这种拷贝性保护的材料在培训中使用公平使用规定,或者必须在版权所有者许可的许可下获得许可。AI提供者认为,这种许可将非常昂贵,尤其是考虑到可能涉及的交易成本。内容提供者认为,如果没有这样的保护,他们将因其内容创建而获得不足的回报。生成AI模型的另一个方面使这些版权问题复杂化。换句话说,示例与纯复制不同。在2023年的诉讼中,《纽约时报》指控Openai未经许可在培训其GPT LLMS的情况下使用其拷贝性保护的内容。它已要求法院采取措施,以防止培训其内容和/或法定损害损害的模型的可用性。《纽约时报》的证据表明,在某些提示的情况下,Chatgpt和Bingchat(许可Openai的GPT)都可以从《纽约时报》中逐字复制文章。图像生成模型中类似的提示可以产生伦敦拥有的字符和数字资产的相似性(Marcus and Southen,2024)。Openai回应说,他们没有故意在时间上训练自己的模型,而是这些例子是“反流”的证据。 1这种情况,由于某些文本在公共站点上可用,因此大型AI模型可以从统计上复制该文本(T'Anzer等,2021)。2,如果可以使用AI模型重现原始内容,则此“泄漏”可能会对
摘要这项研究研究了六种著名的大型语言模型的道德推理:OpenAI的GPT-4O,Meta的Llama 3.1,困惑,人类的Claude 3.5十四行诗,Google的Gemini和Mismtral 7b。该研究探讨了这些模型如何表达和应用道德逻辑,特别是在响应道德困境(例如手推车问题)和亨氏困境中。偏离了传统的一致性研究,该研究采用了解释性透明框架,促使模型解释了他们的道德推理。通过三种既定的伦理类型学分析了这种方法:结果主义 - 道德分析,道德基础理论和科尔伯格的道德发展阶段。的发现表明,LLM在很大程度上表现出了很大程度上收敛的伦理逻辑,其标志是理性主义者,后果主义者的重点,而决策通常优先考虑危害最小化和公平性。尽管在训练前和模型结构上相似,但跨模型中伦理推理的细微差异和显着差异的混合物反映了微调和训练后过程的差异。模型始终显示出博学,谨慎和自我意识,表现出类似于道德哲学中的研究生级话语的道德推理。在惊人的统一性中,这些系统都将其道德推理描述为比典型的人类道德逻辑的特征更复杂。鉴于人类对此类问题的争论的悠久历史,仍然存在“与谁的价值观保持一致的问题(Brown 1991; Taylor 2023; Klingeford et al。2024)。1987; Sawyer&Jarrahi 2014)。1987; Sawyer&Jarrahi 2014)。生成大语言模型的快速发展使对齐问题成为AI伦理讨论的最前沿 - 具体来说,这些模型是否与人类价值观适当地保持一致(Bostrom,2014; Tegmark 2017; Russell 2017; Russell 2019)。,但我们可能会认为,提出一致性问题的人主要是在适当地呼吁人们注意最大程度地减少对人类生活和环境的身体伤害的更广泛的问题,并最大程度地提高人类在这个不断发展的社会技术领域中寻求目标的能力(Bijker等人,当然,极端的未对准的情况是戏剧性的反对,因为超级智能人工智能模型可能决定控制所有人类系统,消除人类并使世界对人工实体而不是人类的安全。许多认真的分析师深入探讨了这些存在的风险情景(Good 1965; Bostrom 2014;
1个低音(2023)‘萨蒂亚·纳德拉(Satya Nadella)说,山姆·阿尔特曼(Sam Altman)将领导微软的新室内AI团队”,《时代》杂志,https://time.com/6337503/6337503/sam-altman-altman-altman-aintman-coins-microsoft-ai/-2 deffenbaugh 2 deffenbaugh(2024)'Amazon oprifit in 2.75亿美元,$ 4亿美元的投资,商务日报,https://www.investors.com/news/technology/amazon- hanthropic-inthropic-investment-iai/3 IoT Analytics研究(2023)生成AI市场报告2023-2030,2023-2030,https:// iot-sance.com.com.com.com.com/lead-ranadics.com/leading-generation-rismerife no no no no no no no no no no no kak and kak and kak and kak and kak and kake Big Tech',MIT技术评论,https://www.technologyreview.com/2023/12/05/1084393/make-no-mistake-ias-ai-is-is-is-is-is-by-big-tech/-big- tech/5 mccabe(2024)‘联邦贸易委员会启动调查A.I。由科技巨头交易,《纽约时报》,https://www.nytimes.com/2024/01/25/technology/ftc-ai-microsoft-amazon-google.html 6参见上文。7 Hern (2024) ‘Microsoft deal with AI startup to be investigated by UK competition watchdog', The Guardian, https://www.theguardian.com/business/article/2024/jul/16/microsoft-deal-with-ai- startup-to-be-investigated-by-uk-competition-watchdog 8 McCabe (2024) ‘Federal贸易委员会将调查询问由科技巨头交易,《纽约时报》,https://www.nytimes.com/2024/01/25/technology/technology/ftc-ai-microsoft-microsoft-amazon-google.html 9 elsaadi(2024)(2024)使用Instagram和Facebook porte nowsercence of Sav a abc abc abc of instagram和Facebook save nation n sab abc abc of instagram and abc abc abc of。 https://www.abc.net.au/news/2024-06-10/instagram-facebook-train-train-train- meta-ai-tools-no-opt-no-opt-no-australia/103958308 10 tan(2024)‘当服务条款变为A.I时的服务条款时,14见上文。培训',《纽约时报》,https://www.nytimes.com/2024/06/06/26/technology/terms-service-aibia-ai-training.html 11 Ingram(2024)(2024) https://www.nbcnews.com/tech/tech/tech-news/doj-antitrust-chief-say-say-ai-companies-must---赔偿 - 赔偿 - 赔偿 - 劳斯特-rcna154720 12 elsaadi(2024)(2024年)‘使用Instagram和Facebook 2007年培训人工智能工具的META使用Instagram和Facebook帖子https://www.abc.net.au/news/2024-06-10/instagram-facebook-train-train- meta-ai-tools-no-opt-no-opt-ut-australia/103958308 13见上文。15新闻/媒体联盟(2022)Google如何滥用其作为强大新闻发布者和伤害新闻业的市场主导平台的地位,https://www.newsmediaalliance.org/wp- content/oploads/2022/2022/2022/09/nma-white-paper_redpaper_revise_revise_revise_revise-revise-revise-sept-20222.17 Agarwal(2023)“有声读物叙述者担心苹果用他们的声音训练AI',有线,https://www.wired.com/story/story/paptory/apple/apple-spotify-audiobook-narrators-narrators-narrators-narrators-aii-contract/? 4F48-B976-E7DA7A982E4D.1724031522764 18 ROTH(2024)“ Adobe的新服务条款说,它不会使用您的工作来训练AI, https://www.theverge.com/2024/6/6/18/24181001/adobe-updated-terms-of-service-wont-train-train-ai-ai-on-on-work
儿童是数字工具的密集使用者,例如人工智能(AI)。生成的AI - 可以创建新内容(例如文本,图像,视频和音乐)的AI,正变得越来越复杂,因此很难将用户生成的内容与AI生成的(合成)内容区分开。如果不正确监督,这些工具可能会对他们的认知能力仍在发展的儿童承担风险。因此,需要增强儿童,教育工作者和父母的生成AI素养,同时越来越重要,同时行业的努力和加强AI立法的实施,包括监测指标。与AI儿童和青少年一起成长的第一代数字本地人是狂热的互联网用户。欧盟中的大多数孩子每天都使用智能手机,并且从十年前就这样做的年龄要年轻。通常,在线环境儿童访问最初并不是为他们设计的。澳大利亚等一些国家通过法律,以防止16岁以下的儿童使用社交媒体平台。同时,绕过社交媒体等服务设定的年龄要求也没有问题。同样,孩子们已经在使用应用程序,玩具,虚拟助手,游戏和/或学习软件中嵌入的AI。在英国(英国)进行的一项2024年的调查显示,13至18岁的年轻人中有77.1%使用了生成的AI,发现他们使用它的可能性是成年人的两倍。最常见的用途是帮助家庭作业和寻求娱乐。英国根据其AI机会行动计划,有利于在学校使用AI在学校的实施。与其他数字技术一样,除最低使用年龄外,最受欢迎的AI工具没有采取特定措施来使其功能适应不足年龄的用户。Claude的拟人化不允许18岁以下的用户使用其服务。ChatGpt要求对13至18岁用户的父母同意。Google最近通过将最低年龄需求从18岁降低到13岁(仅针对学生帐户),并采取了其他保护措施,例如将这些年轻用户的数据从其AI模型培训中排除,从而对其Gemini AI Chatbot进行了调整。巴西通过禁止社交媒体平台X使用儿童的个人数据来培训其AI,采取了类似的保护措施。
