Cian Cummins,Alberto Alvarez-Fernandez,Ahmed Bentaleb,Georges Hadziioannou,Virginie Pon-Sinet等。Langmuir,2020,36(46),pp.13872-13880。10.1021/acs.langmuir.0c02261。hal-03033202
最后更新时间:2025 年 1 月 18 日 教授:Margaret Martonosi 教授 martonosi@princeton.edu 办公时间:周二/周四 4:30-5:30(课后)在 CS 208 或使用此注册链接:https://calendar.app.google/9D9fpEMdkZCzzVDf8 助教:Kart Kandula kkandula@princeton.edu 办公时间:周四下午 2-3 点(课前)在计算机科学大楼二楼中庭(208 外面) 或使用此注册链接:https://calendar.app.google/ULZJKtkU37VpScAD6 Tim Kosfeld tk9066@princeton.edu 办公时间:周五上午 11 点至中午在 Friend 010A 或使用此注册链接:https://calendar.app.google/q3t1yzRqxcX8YjTu9查找资料: Canvas 上提供的课程材料。 Ed 上有关材料和课程后勤的问答(从 Canvas 链接到) 通过 Gradescope 完成课程作业(从 Canvas 链接到) 由于我们有时需要通过 Ed 发送时间关键信息,请适当设置您的 Ed 通知设置。也就是说,您可能希望启用电子邮件通知。 所有问题(非个人问题)都应发布到 Ed。如果您通过电子邮件将适合 Ed 的问题发送给讲师或助教,您将收到以下回复“请转发给 Ed,问题和答案都将传达给所有受众。我们维持这项政策符合每个人的利益;这绝对是最有效的沟通方式。” 时间:星期二和星期四:3-4:20。CS 小礼堂 105 室 课程描述:本课程将涵盖计算领域的关键发展,包括硬件、软件和理论。将通过阅读开创性的论文、专利和具有高度影响力的架构的描述来涵盖材料。重点将放在深入了解使计算机系统发展到今天水平的发现和发明。讨论型课程将侧重于对阅读材料的深入分析。需要提交最终项目或论文。目标:
深度学习为时间序列分析的进步做出了显着贡献。仍然,深层模型可以在现实世界中数据筛选场景中遇到性能瓶颈,由于当前基准上的小型模型的性能饱和,可以隐藏它们。同时,大型模型通过大规模的预训练在这些情况下表现出了很大的力量。通过大型语言模型的出现,已经取得了持续的进步,这些模型表现出了前所未有的能力,例如少数通用,ization,可伸缩性和任务通用性,但是在小型深层模型中不存在。为了更改从头开始的训练方案特定小型模型的现状,本文旨在早期开发大型时间序列模型(LTSM)。在预训练期间,我们策划了最高10亿个时间点的大规模数据集,将杂项时间序列统一为单序列序列(S3)格式,并开发GPT型体系结构to-Ward ltsms。为了满足各种应用需求,我们将预测,归档和时间序列的异常检测转换为统一的生成任务。这项研究的结果是一个时间的变压器(计时器),它是由下一个令牌预测预测的生成性培训,并适用于具有有希望的Capabil-Ities作为LTSM的各种下游任务。代码和数据集可在以下网址提供:https://github.com/thuml/large time-series-模型。