执行摘要 人工智能 (AI) 技术有可能为投资者和投资公司带来机遇。对于投资者而言,AI 可以扩大获得更高质量产品和服务的渠道,提高市场参与度,降低成本,改善用户体验,增强决策能力,并最终提供更好的结果。对于公司而言,AI 可以提高效率和生产力,改善资源配置和客户服务,并增强风险管理和法规遵从性。然而,使用 AI 也存在潜在风险,包括“AI 清洗”、面向散户投资者的产品和服务不完善、“黑匣子”风险、模型和数据风险、缺乏对 AI 相关风险的明确披露、偏见和利益冲突、隐私问题、对第三方服务提供商的尽职调查和监控不足、系统性风险以及助长不良行为者的恶意行为。如果公司在开发和部署基于 AI 的产品和服务时采取“快速行动,打破常规”的心态,这些风险将会升级。如果 AI 以极快的速度和规模部署,潜在的危害可能会非常迅速地影响大量人群并波及整个经济。人工智能技术的快速发展也可能使监管机构难以跟上步伐。监管机构面临的一个挑战是,市场参与者使用基于人工智能的工具的方式在技术上是合法的,但仍然会损害投资者或市场诚信。另一个挑战是,市场参与者使用基于人工智能的工具从事监管机构难以发现的非法活动。缺乏数据和模型透明度可能会增加监管机构发现不当行为的难度。如果监管机构没有足够的资源来监控和处理人工智能的有害使用,这些挑战将会加剧。监管机构和市场参与者必须采取主动而不是被动的方法来应对这些风险。除了定期与所有利益相关者接触外,监管机构还应利用其审查和监督权力来了解公司如何开发和部署人工智能技术。监管机构还应开发自己的技术来检测市场上对人工智能技术的滥用。为此,监管机构需要足够的资源。公司还必须采取有意义的措施,确保他们开发和部署基于人工智能的工具不会损害投资者或市场诚信。如果复杂性、不透明性、不可靠性、偏见、利益冲突或数据不安全影响到人工智能应用,投资者可能会收到次优的产品和服务,损害他们的财务安全,并更广泛地削弱他们对基于人工智能的工具和投资市场的信任和信心。然而,如果公司和监管机构采取积极主动的方法来应对这些风险,人工智能的潜力就可以得到充分发挥。
主要关键词