人工智能初创公司及其错误的法律风险

人工智能 (AI) 正在呈爆炸式增长。 2013 年至 2023 年间,美国有 5,509 家人工智能初创公司。根据 Statista 的数据,他们获得了大量资金。 “ 2024 年,人工智能初创公司获得了超过 0.5 万亿美元的资金,并筹集了超过 1000 亿美元的资金。” “ 2024 年,人工智能初创公司获得了超过 5 万亿美元的资金,并筹集了超过 0.5 万亿美元的资金 […]《人工智能初创公司和犯错的法律风险》一文首先出现在 AiiotTalk - 人工智能 |机器人 |技术。

来源:AIIOT人工智能 | 物联网 | 技术

人工智能 (AI) 正在呈爆炸式增长。 2013 年至 2023 年间,美国有 5,509 家人工智能初创公司。根据 Statista 的数据,他们获得了大量资金。

“ 2024 年,人工智能初创公司获得超过 5 万亿美元融资,融资超过 1000 亿美元。”

2024年,人工智能初创公司获得超过5万亿美元融资,融资超过1000亿美元

2024年,人工智能初创公司获得的资金将超过5万亿美元,融资额将超过1000亿美元。

尽管人工智能取得了成功,但仍然存在很多灰色地带和法律风险。公司和他们创建的语言学习模型(LLM)可能而且肯定会犯错误。一项研究发现,法学硕士有 60% 的时间是错误的。它甚至不是像 ChatGPT 这样的法学硕士;它是人工智能控制的聊天机器人、财务系统、预订系统和供应链控制系统。人工智能的范围已经超出了我们的想象。

出错的法律风险几乎感觉比人为错误更相关。请继续阅读以了解更多信息。

人工智能是如何出错的

人工智能犯错误的方式与人类不同。当我们犯错时,通常是显而易见的。计算错误、日期错误、打字错误。人工智能的错误更加棘手。他们自信、权威,而且看上去很准确。它们被称为幻觉,发生在所有人工智能系统中。

想象一个伪造不存在的航班的人工智能旅行预订系统。或者,最近更常见的是,预订系统超额预订航班。或者是一种可以自信地产生数十亿数字的金融工具。或者人力资源聊天机器人向员工提供不正确的法律建议。

训练数据是另一个罪魁祸首。偏见、过时的信息或缺乏背景意味着人工智能模型会学到有缺陷的教训。建立在有偏差的数据之上的人工智能会产生有偏差的结果。

然后增加复杂性。许多人工智能系统都是黑匣子。即使开发人员也不完全了解输出是如何生成的。

人工智能的常见风险

风险涵盖业务运营的各个层面。以下是一些最常见的风险:

数据隐私违规。 联邦贸易委员会