纳入澳大利亚现有的监管/法律制度。7 然而,有效监管的目的应该是减少发生危害的可能性。因此,我们认为应该考虑要求技术标准、风险评估框架和问责制度发挥更大的作用,以减少人工智能对个人、社会和地球造成危害的可能性。8 此外,目前对于现有法律和监管制度如何适用于人工智能存在相当大的不确定性,而且由于人工智能的独特特征(不透明性、个性化、速度),在确定不法行为方面可能存在实际障碍。精心设计的事前干预可以通过协助确定不法行为和执行对有害、非法或违反人工智能输出的禁令来减少这些担忧。9
当今的算法已经在各个领域达到甚至超越了人类的任务表现。特别是,人工智能(AI)在组织与个人(例如其客户)之间的互动中发挥着核心作用,例如改变了电子商务或客户关系管理。然而,大多数人工智能系统仍然是难以理解的“黑匣子”——不仅对于开发人员,而且对于消费者和决策者也是如此(Meske 等人,2022 年)。对于电子市场而言,诸如试图管理风险和确保基于机器学习的电子交易系统符合监管要求等问题不仅源于其数据驱动的性质和技术复杂性,还源于其黑匣子性质,其中“学习”创造了
讲师:Genevieve Smith 是哈斯商学院专业教员、伯克利人工智能研究实验室负责任和公平人工智能计划联合主任以及伯克利哈斯公平、性别和领导力中心副主任。她领导与谷歌和 Meta 等公司就负责任创新和人工智能主题与领先科技公司建立合作伙伴关系。她的作品和文章已在《大数据与社会》、《加州管理评论》、《社会斯坦福创新评论》、《华尔街日报》、《福布斯》等杂志上发表和分享。她是美国国际开发署的性别与人工智能研究员、剑桥大学 Minderoo 技术与民主中心的研究员以及牛津大学技术与管理发展中心的研究员。