> 哪些政策和机制可以确保最脆弱和最边缘化的群体在获得住房方面获得优先考虑,以及这如何才能促成基于人权、包容性和正义的新社会契约?
我们知道,护理和支持的差距不成比例地影响那些需求最大和最糟糕的结果的差距。通过确保适当地达到我们的边缘化或处境不利的社区,聆听并参与制定行动并进行更改,可以通过确保我们的边缘化或处境不利的社区来解决健康不平等。我们的ICS致力于应对健康不平等,改善服务不足社区的健康和福祉,包括我们的Core20Plus5方法来减少健康不平等。我们的战略发展计划包括与人和社区合作,这是我们专注于扩展预防性工作的关键,并强调对这些社区的见识和理解的需求是实现我们致力于减少健康不平等的致力于的关键。
传统的发展模式往往是自上而下、千篇一律的,往往无法惠及边缘化社区。这些模式可能无法解决这些群体所面临的特定需求和挑战。此外,官僚主义的繁文缛节和腐败会阻碍政府计划的有效性。尽管印度在某些社会指标方面取得了进展,但仍然存在巨大的差距。例如,印度在 2024 年全球性别差距指数中排名第 129 位,落后于孟加拉国、尼泊尔、斯里兰卡和不丹等国家,这凸显了女性在教育、健康和经济参与方面长期存在的不平等。农村人口在基本设施、基础设施和社会服务方面仍然落后于城市地区,这导致发展不平衡。尽管面临这些挑战,但人工智能为印度的包容性发展提供了一条有希望的途径。本文深入探讨了人工智能作为一种变革工具的潜力,以弥合这些鸿沟,增强边缘化群体的权能,为真正公平和繁荣的印度做出贡献。鉴于这些持续存在的差距,创新解决方案对于解决边缘化社区面临的独特挑战至关重要。人工智能具有变革潜力,为重新思考发展战略和创造跨部门更具包容性的机会提供了一种新方法。
摘要 由于一些弱势群体被排除在民主空间之外和边缘化,目前,协商和参与进程并不具备完全的合法性。有充分的证据表明,语言能力有限的人,例如有认知障碍的人,很难参与民主进程。尽管有促进人权的组织开展了宣传工作,但这种情况仍然发生。iDEM 项目旨在通过彻底的交叉分析,解决协商和参与民主实践中的障碍,即当前的结构和系统限制边缘化和弱势群体参与的条件。特别是那些阅读、写作或理解相当复杂的语言能力有限的人,而这通常是协商和参与进程所必需的。iDEM 将为分析由于缺乏语言技能而导致的当前各种代表性不足的群体被边缘化在协商进程中的情况奠定理论基础。它将采用以用户为中心的方法,使参与过程更加平易近人和更具包容性,开发先进的自然语言处理技术 (NLP) 和人工智能 (AI),为代表性不足的群体赋权,提供工具来促进民主空间中的沟通和对话。iDEM 将共同创建下一代多语言模型,旨在:(1)检测理解多种欧洲语言和受众信息的潜在问题来源,(2)自动调整这些语言的文本,使其更易于这些受众理解和公正,(3)提供人工智能工具,以增强适当信息和话语的生成。iDEM 旨在通过提供公正和包容的技术,利用定制技术在意大利和西班牙创造更容易接近的民主空间,增强边缘化群体的参与度和代表性。
在新加坡主管教师中的酷儿:NUSC学生的家庭教师:CHS(FASS)鉴于最近从废除第377A条的废除到在当地媒体中的更大代表到当地媒体中的更大代表性的潮流变化,而其他里程碑则是其他奇怪的儿童,我可以在酷儿身上进行婚姻权利,以使其陷入困境,以使其陷入困境,以使其陷入困境,以构成婚姻的变化。 新加坡。 在对新加坡酷儿青年进行定性研究和访谈时,这项研究揭示了来自各种背景的年轻人在推动机构变化方面具有微不足道的作用,他们也不认为自己被机构对机构进行了边缘化,即使同意Queer社区的否则,他们也不会被机构进行边缘化。 我将使用植根于foucauldian分析(和理论相关)的制度控制范式来探索这些自我感知背后的因果机制。 -在新加坡主管教师中的酷儿:NUSC学生的家庭教师:CHS(FASS)鉴于最近从废除第377A条的废除到在当地媒体中的更大代表到当地媒体中的更大代表性的潮流变化,而其他里程碑则是其他奇怪的儿童,我可以在酷儿身上进行婚姻权利,以使其陷入困境,以使其陷入困境,以使其陷入困境,以构成婚姻的变化。 新加坡。在对新加坡酷儿青年进行定性研究和访谈时,这项研究揭示了来自各种背景的年轻人在推动机构变化方面具有微不足道的作用,他们也不认为自己被机构对机构进行了边缘化,即使同意Queer社区的否则,他们也不会被机构进行边缘化。我将使用植根于foucauldian分析(和理论相关)的制度控制范式来探索这些自我感知背后的因果机制。-
re:教育部必须禁止公立学校使用人工智能和警察监视技术来滥用边缘化青年秘书卡多纳(Cardona),助理秘书勒蒙(Lhamon)和副助理秘书迪克森(Dixon)的公民和人权,在教育联盟(注意)和41个智能组织中,人类智能(人工智能)的杂志(人工智能)AI(人工智能)AI(人工智能)AI,无需进行人工犯罪。公立学校以及侵犯历史上边缘化社区的学生的公民和人权的潜力。我们对使用监视技术的日益增长地扩大了学校的警察存在,并使学生接触了更大的警察接触,排他性学科和学校俯卧将。我们将这些发展视为学校到监狱管道的危险新篇章,并将黑人,棕色和土著青年和其他边缘化年轻人的大规模定罪。i今年早些时候,美国教育部(ED)发布了两份期待已久的出版物,这是一种与学生纪律II和人工智能以及教学和学习的未来相遇的种族歧视的资源。iii这两份文件都无法通过有意义地解决数据驱动技术在违反边缘化社区的民事和人权方面的作用,这是对青年正义和公民权利倡导者的期望,包括黑人,棕色和土著人,包括障碍,不利的青年,LGBTQIA+ LGBTQIA,LGBTQIA,LGBTQIA,移民年轻人,以及系统的青年和系统。IV行政命令14110要求教育部为强调安全,责任和公民权利的“在学校中使用AI的资源,政策和指导”。v为此,我们敦促教育部利用其现有的法律权力来禁止联邦授予活动,允许学校购买或使用人工智能和大数据技术侵犯学生的基本权利,包括其民权和人权,数据
鉴于人工智能 (AI) 系统对日常生活造成的人权影响,这一点尤为紧迫。从求职到提供公共服务,人工智能系统被用于高风险环境中,其中的错误、偏见和误用会加剧经济和社会不平等。1 虽然许多政府和人工智能支持者都指出人工智能技术有潜力刺激经济增长,但许多人——特别是边缘化群体——已经遭受了这些强大算法技术的歧视性和提取性效应所造成的最严重的过度行为、错误和伤害。2 如果不致力于以问责制、透明度以及保护和提升边缘化和弱势群体为中心的监管方式,人工智能将使少数人受益,同时威胁到大多数人的经济机会和社会福祉。