摘要 — 逻辑综合是数字芯片设计和实现中最重要的步骤之一,对最终结果质量 (QoR) 有很大影响。对于由有向无环图 (DAG) 建模的最通用输入电路,许多逻辑综合问题(例如延迟或面积最小化)都是 NP 完全的,因此没有最佳解决方案。这就是为什么许多经典逻辑优化函数倾向于遵循贪婪方法,这些方法很容易陷入局部最小值,无法最大限度地提高 QoR。我们相信人工智能 (AI) 和更具体地说强化学习 (RL) 算法可以帮助解决这个问题。这是因为 AI 和 RL 可以通过退出局部最小值来帮助进一步最小化 QoR。我们在开源和工业基准电路上进行的实验表明,通过使逻辑综合优化功能由 AI 驱动,可以显著改善面积、延迟和功率等重要指标。例如,与没有 AI 意识的传统重写算法相比,我们基于 RL 的重写算法可以将综合后的总单元面积提高高达 69.3%。
主要关键词