同态加密(HE)是隐私机器学习(PPML)中的核心建筑块,但他也被广泛称为其效率瓶颈。因此,已经提出了许多GPU加速的加密方案来提高HE的性能。但是,这些方法通常需要针对特定算法量身定制的复合修改,并与特定的GPU和操作系统紧密耦合。询问如何通常提供更实用的GPU加速算法的信息很有趣。鉴于大语言模型(LLMS)的强大代码通用功能,我们旨在探索它们的潜力,即使用CPU友好型代码自动生成实用的GPU友好算法代码。在本文中,我们关注数字理论转移(NTT) - HE的核心机制。我们首先开发并优化了对GPU友好的NTT(GNTT)家族,该家族利用了Pytorch的快速计算和预录,并实现了大约62倍的加速,这是一个大约62倍的加速,这是一个明显的增长。然后,我们使用各种LLM,包括DeepSeek-R1,Ope-Nai O1和O3-Mini探索GPU友好的代码生成。在整个过程中,我们发现了许多涉及的发现。例如,有些令人惊讶的是,我们的经验表明,DeepSeek-R1的表现明显优于OpenAi O3-Mini和O1,但仍然无法击败我们优化的协议。这些发现为ppml的PPML提供了宝贵的见解,并增强了LLMS的代码生成能力。代码可在以下网址提供:https://github.com/lmpc-lab/ gengpucrypto。
气候变化和脱碳压力以及能源安全问题引起了政策制定者和业界对氢能的关注。为了在全球范围内推动氢经济,研究和创新进展具有重要意义。然而,以前的研究仅提供了有限的定量证据来证明研究和创新对全球氢市场形成的影响。相反,他们假设而不是实证支持这种关系。因此,本研究在贸易重力模型中分析了 1995 年至 2019 年期间以科学出版物、专利和标准衡量的研究和创新对 32 个国家双边氢贸易流量的影响,使用回归分析和泊松伪最大似然 (PPML) 估计。PPML 估计的主要结果表明,研究和创新进展确实与贸易增长有关,尤其是专利和(国际)标准化提高了氢出口量。作为政策含义,我们得出增加公共研发资金可以帮助提高氢能的竞争力并促进市场增长,同时提供基础设施支持和统一的标准和法规。
- 信息理论中的超越 IID 11(德国图宾根大学),2023 年 7 月 31 日至 8 月 4 日 https://sites.google.com/view/beyondiid11/beyond-iid-11 - 信息理论与数据科学研讨会(新加坡),2023 年 1 月 16 日至 27 日 https://ims.nus.edu.sg/events/information-theory-and-data-science-workshop/ - FOCS'22 上的隐私保护机器学习 (PPML) 研讨会,2022 年 11 月 1 日 https://ppml-workshop.github.io/ - DICTA'22 上的指导演讲,2022 年 10 月 29 日 https://dictaconference.org/dicta2022/ - 学习理论联盟指导研讨会,ALT'22,2022 年 3 月 15 日 https://let-all.com/alt22.html - 2021 Croucher 信息理论暑期课程 (CSCIT),2021 年 8 月 23 日至 28 日 http://cscit.ie.cuhk.edu.hk/ - 稳健性和隐私会议,2021 年 3 月 22 日至 23 日 https://lecueguillaume.github.io/2021/02/17/conf_robust_privacy/ - Simons 研究所高维概率、几何和计算计划,2020 年 8 月 19 日至 12 月 18 日 https://simons.berkeley.edu/programs/hd20 - 推理问题:算法和下限,2020 年 8 月 31 日至 9 月 4 日 https://www.uni-frankfurt.de/84973818/Inference_problems__algorithms_and_ lower_bounds - 2019 年信息理论与应用 (ITA) 研讨会,2019 年 2 月 10 日至 15 日https://ita.ucsd.edu/ws/19/ - 2019 年局部算法研讨会 (WOLA),2019 年 7 月 20 日至 22 日 http://people.inf.ethz.ch/gmohsen/WOLA19/
注:z 统计量在括号中。第 1 至 5 列括号内的稳健标准误差按捐助方、受援方和年份多向聚类。第 1 至 5 列显示使用包含 2006 至 2015 年所有目的地的扩大样本所做的估计。所有来源特定变量均滞后于 t -1。对于外援,我们取 4 年平均值。因此,在时间 t 收到的总转移性官方发展援助是 t -1 至 t -4 之间的 4 年平均值。移民率是使用护士人口的插值值计算的,医生人口的缺失值则使用护士人口比例乘以该国总人口的平均值来估算。样本中包括的 OECD 目的地国如下:比利时、加拿大、丹麦、德国、希腊、匈牙利、爱尔兰、以色列、意大利、拉脱维亚、荷兰、新西兰、挪威、波兰、瑞士、土耳其、英国和美国。缩写:FE,固定效应; ODA,官方发展援助;PPP,购买力平价;PPML,伪泊松最大似然。 * p < 0.05。 ** p < 0.01。 *** p < 0.001。
摘要 - 大型语言模型(LLM)引起了人们的重大关注,因为它们显示出人工通用智能(AGI)的令人惊讶的迹象。人工智能和大型语言模型可用于各种良好目的,例如用于创造知识的数字助手。但是,如此强大的模型也可以具有潜在的风险。除其他问题和风险外,AI模型可以对数据和用户构成的安全和隐私风险。在本文中,我们讨论了多项式和矢量空间等数学结构以及多项式和矩阵矢量函数的隐私保留委派如何用于将计算模型(包括LLMS)转换为隐私保护计算模型。此外,我们重点介绍了一些众所周知的加密结构以及一些可以改进LLM的解决方案,从某种意义上说,它们可以保留数据的隐私和安全性以及用户。总体而言,我们在本文中介绍的隐私性和零知识LLM可能是潜在的解决方案,可以在某种程度上且合理地保留数据和用户的隐私。更重要的是,也许应该对AI模型进行公开可信的数据培训;训练有素的模型应在当地被压缩和使用。索引术语 - 私有的计算,私人多样性计算,隐私提供大语言模式,安全计算,完全同源性加密,Peovacy-Preservice机器学习,零知识范围,零知识模型,可信度的AI,可靠的AI,安全和隐私风险