责任限制/免责声明:尽管出版商和作者已尽最大努力编写本作品,但他们对本作品内容的准确性或完整性不作任何陈述或保证,并明确否认所有担保,包括但不限于任何关于适销性或特定用途适用性的默示担保。销售代表、书面销售材料或宣传声明均不构成或延长本作品的任何担保。出售本作品时,出版商不提供专业服务。本文包含的建议和策略可能不适合您的情况。您应在适当的情况下咨询专家。本作品中引用某个组织、网站或产品作为进一步信息的引文和/或潜在来源,并不意味着出版商和作者认可该组织、网站或产品可能提供的信息或服务,或其可能提出的建议。此外,读者应注意,本作品中列出的网站可能在撰写本作品和阅读本作品期间已经更改或消失。出版商和作者均不对任何利润损失或任何其他商业损害负责,包括但不限于特殊、偶然、间接或其他损害。
人工智能 (AI) 是过去几十年来最大的革命,它改变了我们的生活、工作和与技术互动的方式。人工智能的核心是模仿人类智能并执行语音识别和语言翻译等任务,这些任务以前只有人类才能完成,并且通常需要推理和从过去的经验中学习等认知能力。近年来,人工智能发展迅速,机器学习 (ML)、深度学习 (DL)、自然语言处理 (NLP) 等领域不断取得进展。然而,传统人工智能在一个领域有所欠缺,即展示人类的创造力并创造新颖独特的内容,如创意写作、音乐和艺术。但生成式人工智能的出现正在改变这一现状。
学生们已经开始使用 GenAI,并且对它总体上持积极态度。德勤调查了我们 2,000 名现任员工和全球 550 名学生,以评估他们的看法。尽管对准确性、可靠性、隐私和道德方面存在一些担忧,但 68% 的受访者认为 GenAI 工具提高了他们理解新信息的能力。2 大专学生使用 GenAI 的可能性几乎是员工的两倍,刚毕业的年轻员工使用 GenAI 的可能性是职业生涯中期员工的三倍。香港大学对 399 名本科生和研究生的调查也发现了类似的结果。尽管有些担忧,但这些学生将 GenAI 视为提升人类体验的一种手段,他们看重这些工具提供的个性化反馈、写作和头脑风暴帮助、匿名性、即时支持和用户友好性。3 很明显,学生们已经对 GenAI 的好处持开放态度并欣赏它的好处,因此提升他们的技能和经验应该是优化他们进入职场的首要任务。
保护机密数据:根据大学的数据分类政策和适当使用政策,没有任何生成式 AI 工具符合大学的安全、隐私和合规标准,无法处理除公开信息之外的任何内容。根据大学的学生记录政策,您绝不应将任何受家庭教育权利和隐私法案 (FERPA) 保护的机构数据或信息输入生成式 AI 工具或服务中。
人工智能 (AI) 及其在临床路径中的引入提出了一系列伦理问题,这些问题正在 JME 中进行讨论。1–7 人工智能技术的发展可以生成能够通过剽窃检测器 8 并看起来像是由人类作者 9 撰写的文本,这给医学伦理学带来了新的问题。一组担忧涉及作者身份以及现在是否有可能知道作者或学生确实创作了提交的作品。这似乎是中等和高等教育以及所有学术期刊的普遍担忧。到目前为止,生成式人工智能聊天机器人似乎无法生成完全引用且论证充分的伦理文章,但它们可能可以生成博客或学生论文,这些论文在经过很小的编辑后很难被发现。许多学校和大学已经转向在线评估形式,生成式人工智能可能会对它们的完整性产生怀疑,我们可能会看到恢复手写考试作为一种解决方案。除了这些直接且显而易见的伦理问题之外,生成式人工智能还强调了概念挑战,这些挑战带来了更深层次的伦理问题。JME 致力于发表高质量的文章,进一步对医疗保健领域的问题进行伦理分析。该期刊发表的部分内容报告了实证研究结果。例如,一篇描述定性研究结果然后对一些规范性问题进行分析的文章不能完全由生成式人工智能撰写:它不能进行定性研究。然而,生成式人工智能可以找到公开的资源并产生伦理论证和三段论。这对伦理分析的本质意味着什么?如果伦理分析从根本上来说涉及组装、组织和评估词语,那么也许生成式人工智能可以取代伦理学家。目前,生成式人工智能无法产生细微差别、深度
反思与 AI 使用相关的道德问题 使用 AI 时,请反思短期和长期使用 AI 的道德影响。例如,在借助 AI 撰写文本时,请了解您为其撰写的期刊、教育机构或委员会的任何具体指导方针。使用生成式 AI 来改进您编写的文本是可以接受的,而依靠 AI 从头开始创建文本则不行。在此示例中,文本中产生想法的人(AI 或用户)有所不同。从长远来看,还要考虑您希望在工作中依赖 AI 的程度。道德也与 AI 的社会和环境影响有关。生成式 AI 模型中的隐藏偏见是一个潜在的问题。此类 AI 模型生成的文本反映了其训练数据,而这些数据可能会偏向于来自高收入、英语地区的数据。对世界其他地区观点的代表性不足可能会导致种族、语言和文化等方面的偏见。ChatGPT 等热门 AI 和提供这些技术的公司在多个方面受到了批评,包括在培训过程中对廉价劳动力的剥削以及为 AI 提供动力的数据中心对环境的影响。我们鼓励您了解这些批评,并思考它们是否应该影响您对 AI 的使用,如果应该,应该如何影响。
虽然注意力模型对于机器翻译等任务很重要,但“自我注意力”对于消除歧义很有用,即辨别单词和句子的上下文和含义。与顺序模型不同,顺序模型通过分别返回句子中的每个后续单词来辨别单词的含义,而自我注意力模型将对句子中其他单词的理解“融入”我们正在处理的特定单词中。也就是说,每个单词在处理时都与输入中的其他单词有关系。这有助于并行优化并极大地提高模型的性能。7
除 ASCI 法规外,印度的广告法规还受《2019 年消费者保护法》(CPA)和行业特定法规的管辖,例如《2013 年印度证券交易委员会(投资顾问)法规》、印度食品安全和标准局的食品和饮料法规、BIS 标准等。CPA 禁止不公平的贸易行为,包括虚假或误导性广告,并授权中央消费者保护局 (CCPA) 调查投诉并对违规行为发出命令。根据 CPA 发布的《防止误导性广告和代言指南》概述了允许广告的标准和对误导性声明的限制。
生成式人工智能,尤其是 LLM 驱动的聊天机器人并非没有风险,这引发了关于失业可能性以及知识产权和所有权法律问题的讨论。更重要的是,由于聊天机器人模仿连贯的人类措辞,可能会给人留下人工智能理解其响应提示的印象,这可能会导致用户将聊天机器人拟人化(即计算机科学家 Joseph Weizenbaum 作品中所见的 ELIZA 效应)。德勤正在开展各种项目,探索生成式人工智能可以为我们的客户创造的机会和商业价值。从迄今为止的经验和对话来看,与所有人工智能一样,未来的明确道路是尝试发现和利用能力,同时负责任地管理风险
