第二部分以促进培训模块的一般指导方针和技巧开始。模块 A–E 是参与式培训模块,提供核心练习,以提高卫生机构工作人员对卫生机构中性传播疾病的认识,并帮助他们改变对艾滋病毒感染者和重点人群的态度和行为。这些模块还涵盖了标准预防措施的基本技能。这些练习采用参与式方法——基于讨论、小组活动、案例研究和其他参与式方法(例如角色扮演、卡片风暴),旨在使学习变得生动有趣。目的是让参与者积极参与思考影响艾滋病毒感染者和重点人群的问题,而不是被动地听讲座。参与者通过分享想法、讨论和分析问题、将新概念与自己的经验联系起来、尝试寻找问题的解决方案以及计划他们可以做些什么来挑战性传播疾病来学习。这种方法培养了学习者的主动性和责任感,并增强了他们独立思考的能力——这是建立自力更生行动和倡导所需的特征。
欧盟委员会于 2021 年 4 月提出的人工智能法案 (AIA) 提案反映了对人工智能的政策和立法关注度的提高。2 该提案包含与保护基本权利相关的条款。这些规定包括风险管理要求(第 9 条),包括关于基本权利的要求,以及对高风险人工智能系统的一致性评估(第 43 条)。值得注意的是,关于本报告的重点,拟议的 AIA 还包括处理敏感数据以检测、监控和纠正可能导致歧视的偏见的法律基础(第 10 条 (5))。在撰写本报告时,围绕拟议的 AIA 的谈判正在进行中。基本权利保护在围绕 AIA 的谈判和讨论中发挥着重要作用。3
最近,非法滥用药物滥用急剧增加,与使用相关的死亡率越来越高。1–3要与滥用这些物质作斗争,必须检测不同的分子。因此,检测广泛的非法药物的能力,例如海洛因,可卡因,甲基苯丙胺和梅菲无人机,是一项重大挑战,其克服将为社会带来巨大的好处。4,5成功发现此类药物已成为减少威胁和风险的关键优先事项,6-10造成严重损害,例如呼吸,心脏,肾脏损害以及精神健康问题,例如暴力,抑郁,焦虑,焦虑和幻觉。11,12为了设计敏感,快速,便携式和低成本的传感纳米版,有必要开发新的纳米材料和设备概念,并制定新的计划和策略来控制,管理和开发精确的传感器芯片。已经提出了各种技术来检测非法药物,例如质谱,3,13,14个核磁共振,15,16 X射线粉末衍射17和高分辨率的液相色谱法。18
本文探讨了拉丁美洲数字福利国家内算法歧视的现象。它研究了由算法驱动的自动决策过程如何使现有的社会不平等现象。该研究深入研究了拉丁美洲福利国家的政治经济学,强调了由华盛顿共识和新兴的“硅谷共识”等全球经济框架影响的过渡。通过对哥伦比亚和智利的234种公共算法和案例研究的全面分析,该论文确定了算法决策影响社会政策的关键领域。它还评估了旨在减轻算法偏见以及促进公平和包容性的机构响应和法律框架。这些发现强调了对特定地区的算法治理方法的需求,强调了上下文化的法律和监管措施的重要性,以确保非歧视国家和在数字时代获得公平的社会服务。
截止日期前 4 天 - 成功的竞标者将是团队设定的估计价格范围内提供最低出价的竞标者。但是,如果投标价格在预算、结算和会计命令(1949 年帝国法令第 165 号)第 85 条范围内...
一名未婚女性与当地贷款机构之间存在持续的信贷安排。一段时间后,在该女性结婚后,贷款机构通知她,由于她的新婚姻状况,她必须重新申请才能继续使用现有信贷。此外,新的申请必须以她丈夫的名义提交,妻子贡献的任何收入——即使她的收入高于丈夫——也可能不予考虑。如果该女性与丈夫分居并离婚,该信贷账户将保留在他的名下。她必须申请一个新的信贷账户,但她的申请将因离婚身份而受到处罚。即使什么都没有改变,如果她从事相同的工作,获得相同的薪水,没有其他受抚养的孩子,也没有新的财务义务,她可能无法获得与结婚前相同的信贷安排。
人员配备................................................................................................................ 5
摘要................................................................................................................................................................ 3
简介 企业经常依赖预测模型来支持或做出有关投资、员工招聘和留任、财务报告、客户服务(包括授信、定价和营销)、客户关系管理、资本充足率和其他各种目的的决策。一般而言,使用任何模型都涉及“模型风险”,其定义为“基于不正确或误用的模型输出和报告做出的决策可能带来的不利后果”。1 此类风险的潜在来源包括但不限于设计缺陷;假设、数学或编程错误;数据错误;模型实施错误;或将模型误用于非设计目的。但是,它还包括使用模型会导致违反法律或法规(例如禁止歧视)或造成代价高昂的声誉损害的风险。模型复杂性增加、数据输入和假设的不确定性、更大程度的
使用基于大型语言模型 (LLM) 的人工智能也引发了潜在的伦理问题,例如 ChatGPT,这款虚拟人工智能聊天机器人由初创公司 OpenAI 于 2022 年 11 月首次亮相,推出仅两个月后,月活跃用户就达到 1 亿。沃顿商学院的 Christian Terwiesch 教授发现,ChatGPT 可以通过典型的沃顿商学院 MBA 核心课程的期末考试 [8],这引发了一场关于在教育中使用人工智能的伦理影响的全国性讨论。虽然一些教育工作者和学者对 ChatGPT 可能被滥用于作弊和抄袭敲响了警钟,但从法律行业到旅游行业的行业从业者都在试验 ChatGPT,并讨论人工智能对业务和工作未来的影响 [9]。本质上,大型语言模型是一种在大量文本上进行训练的深度学习算法。数据中遗留的偏见可能导致数字歧视的出现,尤其是当各种基于 LLM 的模型都是基于不同模式(例如图像、视频等)的数据进行训练时。此外,在某些情况下,缺乏对数据收集、模型训练和使用的监督和监管也可能存在问题和不道德。鉴于人工智能聊天机器人的快速发展和渗透,我们必须调查人工智能的道德和不道德使用之间的界限,以及 LLM 应用程序使用中潜在的数字歧视。