生成式人工智能 (AI) 和 AI 辅助技术最近引起了广泛关注,ChatGPT 是该技术最显著的例子之一。ChatGPT 由人工智能公司 OpenAI 开发,于 2022 年 11 月 30 日推出。它是一个生成式聊天机器人,是一种通过对话 (聊天) 吸引用户并可以模拟类似人类对话的软件应用程序。它使用生成式预训练 Transformer (GPT) 语言模型来理解和响应基于现有训练算法的自然语言输入。因此,它可以快速提供跨多个知识领域的详细响应,并生成几乎与人类编写的文本无法区分的内容 (Eysenbach, 2023)。一些专家和机构已经探索了生成式人工智能在不同领域的潜力,例如商业(van Dun、Moder、Kratsch 和 Röglinger,2023 年)、教育(Cooper,2023 年)和医学(Ali 和 Shah,2022 年)。最近,2023 年 3 月 21 日,谷歌在美国和英国推出了该公司自己的生成式人工智能聊天框 Bard,旨在提供自动化的类人支持。
本研究重点关注人工智能 (AI)、通信和尼日利亚的转型。人工智能 (AI) 领域正在迅速扩展,这些进步对我们的日常生活产生了深远的影响。尼日利亚是看到这项创新有潜力加快国家转型和进步步伐的国家之一。有鉴于此,本研究旨在调查尼日利亚转型中采用人工智能 (AI) 技术和通信的程度,确定将 AI 和通信纳入尼日利亚转型努力的潜在好处和缺点,并研究 AI 对尼日利亚转型的伦理、法律和社会影响,因为它与数据隐私、透明度和问责制有关。该研究的理论框架围绕创新扩散理论 (DOI) 和技术社会建构理论 (SCOT) 建立。本研究采用范式分析,将主题讨论框架置于有用的范式中,以帮助读者获得更深入的见解。因此,研究的讨论方面分为三个范式;历史和文化背景、政府角色和政策以及尼日利亚通信中采用人工智能的道德、法律和社会影响。该研究得出结论,通信中的人工智能可能会改变商业和尼日利亚的经济。然而,投资于技术和
我在此声明,本文件中的所有信息均已根据学术规则和道德行为获得和呈现。我还声明,根据这些规则和行为的要求,我已充分引用和参考了所有非本作品原创的材料和结果。
摘要 我讨论了哈瑟利在《医学伦理学杂志》上提出的一个有影响力的论点。哈瑟利借鉴了关于人际信任的有影响力的哲学论述,声称医疗人工智能可以是可靠的,但不是值得信赖的。此外,哈瑟利认为,信任会为受托人产生道德义务。例如,当患者信任临床医生时,临床医生就会产生一定的道德义务,让她去做她被委托做的事情。我对哈瑟利的说法提出三点反对意见:(1)至少有一个关于主体间信任的哲学论述意味着医疗人工智能是值得信赖的。(2)即使这个论述最终被拒绝,也无关紧要,因为我们最关心的是医疗人工智能是否可靠。(3)信任本身会为受托人产生道德义务的说法是错误的。
摘要 通过使用多种 NLP 方法对一系列新闻文章进行分析,我们发现在媒体领域中,对人工智能的批评主要有两种方式并存。结合文本分类算法来检测批评文章,并对从语料库中提取的术语进行拓扑分析,我们揭示了两个语义空间,涉及不同的技术和人类实体,但也涉及不同的时间性和问题。一方面,塑造我们日常计算环境的算法与对偏见、歧视、监视、审查和不当内容传播放大现象的批判性论述有关。另一方面,机器人和人工智能指的是自主和具身的技术实体,它们与一种预言性论述有关,这种预言性论述提醒我们,我们有能力控制这些模拟或超越我们的身体和认知能力并威胁我们的人身安全或经济模式的代理。
2. 文献综述 1. 根据陈志豪等人[1]的论述,它为智能移动应用(例如道路交通和铁路气候)实现了对象识别、定位和监控框架。首先在两种深度学习方法中进行对象检测和跟踪方法:You Only Look Once (YOLO) V3 和单次检测器 (SSD)。 2. Zhong-Qiu Zhao 等人[2]的论述,本文介绍了一种专注于对象检测框架的深度学习分析。在卷积神经网络(CNN)的背景下解决了通用对象检测架构,并进行了一些修改和有用的技巧以提高检测效率。 3. Licheng Jiao 等人[3]的论述,本文重点介绍了用于检测任务的深度学习网络的快速发展,以及对象检测器的效率得到了大大提高。 4. Yakup Demir2 等人[4]的论述,涉及在真实驾驶环境中对周围物体进行可靠和准确的检测和识别的自动驾驶。虽然已经提出了许多用于物体检测的算法,但并非所有算法都足够稳健,可以检测和识别被遮挡或截断的物体。本文提出了一种基于卷积神经网络 (CNN) 和支持向量机 (SVM) 的混合局部多系统 (LM-CNNSVM),因为它具有强大的提取能力和稳健的分类特性。5. Mukesh Tiwari 编辑 [5] 讨论了由于物体运动的日常变化和场景大小的变化、遮挡、外观变化以及自我运动和照明的变化,物体的识别和跟踪是重要的研究领域。具体而言,特征选择是跟踪物体的重要组成部分。
科学家和决策者认为人工智能 (AI) 是解决可持续性问题的潜在工具。但是,AI 解决方案可以通过不同的方式用于不同的目的。本文假设这一过程取决于总体环境安全论述。它回顾了文献中提出的 AI 的使用如何融入国家、国际、人类和生态安全视角 [1]。国家气候安全论述可以强调 AI 的军事用途及其在宣传和错误信息中的作用。国际安全论述表明,国际组织可以利用 AI 来执行其任务。但是,跨国公司也可以从 AI 中受益,这可能会对消费和资源开采产生负面影响。军事 AI 的公私合作为跨国公司和国家提供了阻碍环境运动的工具。人类安全话语强调人工智能在实现可持续发展目标中的作用,但应考虑潜在的权力不平衡,以防止不平等。最后,对气候安全的生态理解强调算法在塑造我们对环境的看法中的作用,以及它如何潜在地使我们与其他宇宙学和人工智能的环境影响疏远。这种反思开辟了探索人工智能、地缘政治和环境保护之间相互作用的途径。
Sanger Institute的知识交流包括各种活动,包括研究所内外的合作,共享我们的研究结果和数据,并通过培训在全球范围内共享知识。我们的研究人员和技术专家与该研究所的Wellcome Connection Science计划紧密合作,以共享知识,设计和提供培训。Wellcome连接科学的使用学习和培训在全球范围内扩大我们科学的影响和影响力。他们确定了由基因组技术的快速发展引起的新兴领域的培训需求,并通过对技术技能和方法论,创建教育材料和学校参与活动的培训,为全球能力建设做出了持续的贡献。wellcome连接科学还为公共论述提供了有关基因组科学的论述,并衡量了公众对基因组科学的态度。基因组学培训