非确定性人工智能(“AI”)系统是黑匣子——其程序员缺乏对 AI 输出的控制和预见能力。根据单方面错误原则,黑匣子问题使得证明通过非确定性 AI 签订合同的无错误方(“NMP”)知道相关错误变得不可行。展望未来,议会应立法规定,如果 NMP 通过非确定性 AI 发出有争议的要约,则如果一个理性的人在实际交易时应该知道该错误,则合同可撤销。除其他好处外,这条规则还可以防止黑匣子 AI 被滥用来规避有关单方面错误的法律,并更公平地在 NMP 和其交易对手之间分配风险。黑匣子问题还意味着,将公平管辖权建立在公平单方面错误上的不公平性将很难证明。因此,新加坡的立法机关应针对这种特定情况进一步制定规则:如果 NMP 在合同签订后实际获悉错误,但仍试图以构成不正当行为或不当行为的方式执行合同,则仍然可以撤销合同,但须遵守通常的公平限制。
主要关键词