a. Prafulla Chandra Ray-化学 b. Birbal Sahni-物理学 c. Srinivas Ramanujan-数学 d. Vikram Sarabhai-空间科学 13. 以下哪种形式的知识产权最常适用于技术
1 Harish-Chandra 研究所,HBNI,Chhatnag Road,Jhunsi,Allahabad 211 019,印度 2 加尔各答大学应用数学系,92 Acharya Prafulla Chandra Road,加尔各答 700 009,印度 3 耶路撒冷希伯来大学 Racah 物理研究所,耶路撒冷,Ram Givat 1949
会员 Smt。 Nandita Bhattacharya,Sc G Shri Vadivelan A,Sc F Smt。 Sangeetha Singhal,Sc F Smt。 Selvanayaki K、Sc F Shri Manu Jain、Sc F Shri Meshram Devendra、Sc F Shri Bineshkumar Kanakan、Sc F Smt。 Chandreyi S Ghosh,理科 F Shri Bheemappa,理科 F Dr. Tarun Uppal,理科 F Smt。 Seema Parmar,Sc F Shri Saugata Tribedi,Sc F Shri Vijay Vittal Nadagouda,Sc F Shri Bipin Kumar Lahkar,Sc F Shri Prafulla Chandra,Sc F Shri Manoj Kumar,Sc F Smt。 Dipti Dongre,Sc E Shri Vijaya Kumar M,Sc E Smt。 Bhavneet,Sc E Shri Subramanya N,Sc E Smt。 Chandrani Dey,Sc E Shri Reddy VSS,TO-D Shri Bheemapa HS Naik,TO-C Shri Nagesha D,TO-C Shri Nagaraja HS,TO-C Shri Prithvi V,TO-A
Singh Singh 1,Catine E. Greeson 2,Misy Fang 3,Yasmin N. Laymon 4,Vishai Khivansara 3,Yavin 3,Yavu T. Dura 1,荷兰人4,荷兰人4,Yixiang li 1,Musannad Abu-Remaleh 1,Abu-Remaleh 1,xinah li 1,xinah li 1,xinah li 1,xinah li 1,xinah li 1,xinah li s.SOL 2,Fraene Frama-Walton 2,Luis Hernandaz 2,Miguel P Balldoero 2,Bryn M. Leant Mean Mean Evely 2,Iolda Venndrell 8,Roman Fiker 8,Kessilla 8,Kessilla 8,Preparla C. Cukhale,Signoretti先知4,Peblo D. Sepolp 2,Earp 2,Earp D. Sepolp D.Sepolp D.
[FEL49] William Feller。“关于随机过程的理论,对应用的尤为参考”。:1949年。URL:https:// api。Spenticscholar.org/corpusid:121027442。[SE19] Yang Song和Stefano Ermon。“通过估计数据分布梯度来生成建模”。in:神经信息处理系统的进步32(2019)。[HJA20] Jonathan Ho,Ajay Jain和Pieter Abbeel。“降级扩散概率模型”。in:神经信息处理系统的进步33(2020),pp。6840–6851。[儿子+20] Yang Song等。“通过stochastic微分方程基于得分的生成建模”。in:arxiv预印arxiv:2011.13456(2020)。[DN21] Prafulla Dhariwal和Alexander Nichol。“扩散模型在图像合成上击败了gans”。in:神经信息过程的进步34(2021),pp。8780–8794。[Kin+21] Diederik Kingma等。“变化扩散模型”。in:神经信息处理系统的进步34(2021),pp。21696–21707。[HS22] Jonathan Ho和Tim Salimans。“无分类器扩散指南”。in:arxiv预印术:2207.12598(2022)。[CHI+23] Cheng Chi等。“扩散策略:通过行动扩散进行视觉策略学习”。in:arxiv预印术:2303.04137(2023)。
4. Pratik Pataniya、Chetan K. Zankat、MohitTannarana、CK Sumesh、Som Narayan、GK Solanki、KD Patel、VM Pathak、Prafulla K. Jha “由 WSe2 纳米点功能化的纸基柔性光电探测器” ACS Appl. Nano Mater.2,5, 2758-2766 (2019)。5. Abhishek Patel、Pratik Pataniya、GK Solanki、CK Sumesh、KD Patel、VM Pathak “n-VO 2 /n-MoSe 2 异质结二极管的制造、光响应和温度依赖性” Superlattices and Microstructures 130, 160-167 (2019)。 6. CK Sumesh “MX 2(M = Mo,W;X = S,Se)/Si异质结器件的温度相关电子电荷传输特性”材料科学杂志:电子材料;30,4117–4127(2019 年)。7. CK Sumesh “纳米结构太阳能电池中的高效光子管理:2D 层状过渡金属二硫属化物半导体的作用”太阳能材料和太阳能电池 192 16–23(2019 年)。8. CK Sumesh 和 Kinnari Parekh “纳米催化物理化学吸附和有机染料降解”Pramana – 物理学杂志(2019 年)92:87 DOI:10.1007/s12043-019-1760-0(2019 年)。 9. SanniKapatel、CK Sumesh,“两步简便制备 MoS2·ZnO 纳米复合材料作为亚甲蓝(染料)降解的有效光催化剂”15,119–132 (2019)。10. Pratik Pataniya、GK Solanki、Chetan K. Zankat、MohitTannarana、CK Sumesh、KD Patel、VM Pathak,“n-
首席赞助人:教授(Dr)羽衣甘蓝,Hon'ble副校长,Savitribai Phule Phule University Patron:Rahul Walkar博士,印度SA总裁)Manohar G. Chan博士,科学与技术Mahesh,Sppu教授Sanjay G. Dhandde,Sicking of Technology,SPU Subhash,Distgued教授,RE RE KIRAN DESHPANDE教授,马哈拉施特拉邦银行(Bank of Maharashtra)主席Si Patel教授,名单上的能源研究中心,SPPU PROF PPU PPU PROF SARNESH JADPT,DEAPT,DEDARN,DEDARN,DEDAR,DEDAR,DEDAR, SPU,SPU教授Arvind D Shaligram教授,SPU-Research Tive,印度能源存储联盟(ISA)主席:Addya Abhyankar博士,能源研究中心,SPPU协调员协调员协调员协调员,SPU协调员:RE进行能源研究:SPU SADITI PATER,SPPU MS ADITI PATHAK,INDIAN SOTOMAL SOTORAS SOTORAS SOTORAS ALOCASE ARMOTAR SOOTARAGE ALLICANCE ALLICANCE ALLICAND ALLICANCE(ISA ALINDAINCE委员会: Somnath Nandi 博士,圣彼得堡国立大学技术系Swapnil Kamble,SPPU 技术系 Yogesh Waghadkar 博士,SPPU 能源研究中心 Asmita Marathe 女士,SPPU 能源研究中心 Niraj Diwatiya 先生,SPPU 能源研究中心 Dilip Gaikwad 先生,SPPU 能源研究中心 Ganesh Lokhande 先生,SPPU 能源研究中心
[1] Takahiro Arima、Tomoko Okuma 和 Tatsuya Dewa。从技术文档中提取材料信息以探索新应用。自然语言处理协会第 29 届年会论文集,第 512-515 页,2023 年。[2] Annemarie Friedrich、Heike Adel、Federico Tomazic、Johannes Hingerl、Renou Benteau、Anika Marusczyk 和 Lukas Lange。SOFC-exp 语料库和神经方法在材料科学领域的信息提取。在计算语言学协会第 58 届年会论文集,第 1255-1268 页。ACL,2020 年。[3] Shu Huang 和 Jacqueline M. Cole。使用飞行数据提取器自动生成的电池材料数据库。科学数据,第 5 卷7,第1号,第2052-4463页,2020年。[4] Fabrizio Gilardi、Meysam Alizadeh和Maël Kubli。Chatgpt在文本注释任务中的表现优于众包工作者。美国国家科学院院刊,第120卷,第30期,第e2305016120页,2023年。[5] Tom Brown、Benjamin Mann、Nick Ryder、Melanie Subbiah、Jared D Kaplan、Prafulla Dhariwal、Arvind Neelakantan、Pranav Shyam、Girish Sastry、Amanda Askell、Sandhini Agarwal、Ariel Herbert-Voss、Gretchen Krueger、Tom Henighan、Rewon Child、Aditya Ramesh、Daniel Ziegler、 Jeffrey Wu、Clemens Winter、Chris Hesse、Mark Chen、Eric Sigler、Mateusz Litwin、Scott Gray、Benjamin Chess、Jack Clark、Christopher Berner、Sam McCandlish、Alec Radford、Ilya Sutskevser 和 Dario Amodei。语言模型是少样本学习器。载于《神经信息处理系统进展》,第 33 卷,第 1877-1901 页。Curran Associates, Inc.,2020 年。[6] Md Tahmid Rahman Laskar、M Saiful Bari、Mizanur Rahman、Md Amran Hossen Bhuiyan、Shafiq Joty 和 Jimmy Huang。在基准数据集上对 ChatGPT 进行系统研究和全面评估。载于《计算语言学协会研究结果:ACL 2023》,第 1877-1901 页。 431–469。ACL,2023 年 7 月。[7] Bart lomiej Koptyra、Anh Ngo、Lukasz Radli´nski 和 Jan Koco´n。Clarin-emo:使用人类注释和 chatgpt 训练情绪识别模型。在国际计算科学会议上,第 365–379 页。Springer,2023 年。[8] Taiki Watanabe、Akihiro Tamura、Takashi Ninomiya、Takuya Makino 和 Tomoya Iwakura。使用化合物释义进行化学命名实体识别的多任务学习。在 2019 年自然语言处理经验方法会议和第 9 届国际自然语言处理联合会议 (EMNLP-IJCNLP) 的论文集上,第 6244–6249 页。ACL,2019 年。[9] Amalie Trewartha、Nicholas Walker、Haoyan Huo、Sanghoon Lee、Kevin Cruse、John Dagdelen、Alexander Dunn、Kristin A. Persson、Gerbrand Ceder 和 Anubhav Jain。量化领域特定预训练在材料科学命名实体识别任务中的优势。Patterns,第 3 卷,第 4 期,第 100488 页,2022 年。[10] Gupta Tanishq、Zaki Mohd 和 NM Krishnan。Matscibert:用于文本挖掘的材料领域语言模型
[1] Jimmy Lei BA,Jamie Ryan Kiros和Geoffrey E. Hinton。层归一化。2016。Arxiv:1607.06450 [Stat.ml]。[2] Nanxin Chen等。Wavegrad:估计波形产生的梯度。2020。Arxiv:2009.00713 [Eess.as]。[3]凯瑟琳·克罗森(Katherine Crowson)。在CIFAR-10上训练扩散模型。在线。2024。URL:https://colab.research.google.com/drive/1ijkrrv-d7bosclvkhi7t5docryqortm3。[4]凯瑟琳·克罗森(Katherine Crowson)。v-diffusion。在线。2024。URL:https: / / github。com/crowsonkb/v-diffusion-pytorch/blob/master/diffusion/utils.py。[5] Ekin D. Cubuk等。randaugment:实用的自动化数据增强,并减少了搜索空间。2019。Arxiv:1909.13719 [CS.CV]。 [6] Yann N. Dauphin等。 通过封闭式卷积网络进行语言建模。 2017。Arxiv:1612.08083 [CS.CL]。 [7] Mostafa Dehghani等。 通用变压器。 2019。Arxiv:1807.03819 [CS.CL]。 [8] Yilun Du和Igor Mordatch。 基于能量的模型中的隐性产生和概括。 2020。Arxiv:1903.08689 [CS.LG]。 [9] Ian J. Goodfellow等。 生成对抗网络。 2014。Arxiv:1406.2661 [Stat.ml]。 [10] Dan Hendrycks和Kevin Gimpel。 高斯错误线性单元(Gelus)。 2023。Arxiv:1606.08415 [CS.LG]。 [11] Jonathan Ho,Ajay Jain和Pieter Abbeel。 剥离扩散概率模型。 2020。Arxiv:2006.11239 [CS.LG]。2019。Arxiv:1909.13719 [CS.CV]。[6] Yann N. Dauphin等。通过封闭式卷积网络进行语言建模。2017。Arxiv:1612.08083 [CS.CL]。[7] Mostafa Dehghani等。通用变压器。2019。Arxiv:1807.03819 [CS.CL]。 [8] Yilun Du和Igor Mordatch。 基于能量的模型中的隐性产生和概括。 2020。Arxiv:1903.08689 [CS.LG]。 [9] Ian J. Goodfellow等。 生成对抗网络。 2014。Arxiv:1406.2661 [Stat.ml]。 [10] Dan Hendrycks和Kevin Gimpel。 高斯错误线性单元(Gelus)。 2023。Arxiv:1606.08415 [CS.LG]。 [11] Jonathan Ho,Ajay Jain和Pieter Abbeel。 剥离扩散概率模型。 2020。Arxiv:2006.11239 [CS.LG]。2019。Arxiv:1807.03819 [CS.CL]。[8] Yilun Du和Igor Mordatch。基于能量的模型中的隐性产生和概括。2020。Arxiv:1903.08689 [CS.LG]。[9] Ian J. Goodfellow等。生成对抗网络。2014。Arxiv:1406.2661 [Stat.ml]。[10] Dan Hendrycks和Kevin Gimpel。高斯错误线性单元(Gelus)。2023。Arxiv:1606.08415 [CS.LG]。[11] Jonathan Ho,Ajay Jain和Pieter Abbeel。剥离扩散概率模型。2020。Arxiv:2006.11239 [CS.LG]。[12] Jonathan Ho和Tim Salimans。无分类器扩散指南。2022。ARXIV:2207.12598 [CS.LG]。[13]安德鲁·霍华德(Andrew Howard)等人。搜索MobilenetV3。2019。Arxiv:1905.02244 [CS.CV]。[14] Andrew G. Howard等。 Mobilenets:用于移动视觉应用的有效卷积神经网络。 2017。Arxiv:1704.04861 [CS.CV]。 [15] Forrest N. Iandola等。 squeezenet:较小的参数和€0.5MB型号的Alexnet级准确性。 2016。Arxiv:1602.07360 [CS.CV]。 [16] Imagenet 64x64基准(图像生成)。 用代码的论文,2024。URL:https://paperswithcode.com/sota/image-generation-generation-en-on-imagenet-64x64。 [17] Sergey Ioffe和Christian Szegedy。 批次归一化:通过减少内部协变性转移来加速深层网络训练。 2015。Arxiv:1502.03167 [CS.LG]。 [18] Diederik P. Kingma和Jimmy Ba。 亚当:一种随机优化的方法。 2017。Arxiv:1412.6980 [CS.LG]。 [19] Diederik P. Kingma和Ruiqi Gao。 将扩散目标理解为具有简单数据增强的ELBO。 2023。Arxiv:2303.00848 [CS.LG]。 [20] Diederik P. Kingma等。 变化扩散模型。 2023。Arxiv:2107.00630 [CS.LG]。 [21] Zhenzhong Lan等。 albert:一个精简版的语言表示学习。 2020。Arxiv:1909.11942 [CS.CL]。 [22] Ilya Loshchilov和Frank Hutter。 重量衰减正则化。[14] Andrew G. Howard等。Mobilenets:用于移动视觉应用的有效卷积神经网络。2017。Arxiv:1704.04861 [CS.CV]。 [15] Forrest N. Iandola等。 squeezenet:较小的参数和€0.5MB型号的Alexnet级准确性。 2016。Arxiv:1602.07360 [CS.CV]。 [16] Imagenet 64x64基准(图像生成)。 用代码的论文,2024。URL:https://paperswithcode.com/sota/image-generation-generation-en-on-imagenet-64x64。 [17] Sergey Ioffe和Christian Szegedy。 批次归一化:通过减少内部协变性转移来加速深层网络训练。 2015。Arxiv:1502.03167 [CS.LG]。 [18] Diederik P. Kingma和Jimmy Ba。 亚当:一种随机优化的方法。 2017。Arxiv:1412.6980 [CS.LG]。 [19] Diederik P. Kingma和Ruiqi Gao。 将扩散目标理解为具有简单数据增强的ELBO。 2023。Arxiv:2303.00848 [CS.LG]。 [20] Diederik P. Kingma等。 变化扩散模型。 2023。Arxiv:2107.00630 [CS.LG]。 [21] Zhenzhong Lan等。 albert:一个精简版的语言表示学习。 2020。Arxiv:1909.11942 [CS.CL]。 [22] Ilya Loshchilov和Frank Hutter。 重量衰减正则化。2017。Arxiv:1704.04861 [CS.CV]。[15] Forrest N. Iandola等。squeezenet:较小的参数和€0.5MB型号的Alexnet级准确性。2016。Arxiv:1602.07360 [CS.CV]。[16] Imagenet 64x64基准(图像生成)。用代码的论文,2024。URL:https://paperswithcode.com/sota/image-generation-generation-en-on-imagenet-64x64。[17] Sergey Ioffe和Christian Szegedy。批次归一化:通过减少内部协变性转移来加速深层网络训练。2015。Arxiv:1502.03167 [CS.LG]。[18] Diederik P. Kingma和Jimmy Ba。亚当:一种随机优化的方法。2017。Arxiv:1412.6980 [CS.LG]。[19] Diederik P. Kingma和Ruiqi Gao。将扩散目标理解为具有简单数据增强的ELBO。2023。Arxiv:2303.00848 [CS.LG]。[20] Diederik P. Kingma等。变化扩散模型。2023。Arxiv:2107.00630 [CS.LG]。[21] Zhenzhong Lan等。albert:一个精简版的语言表示学习。2020。Arxiv:1909.11942 [CS.CL]。[22] Ilya Loshchilov和Frank Hutter。重量衰减正则化。2019。Arxiv:1711.05101 [CS.LG]。[23] Preetum Nakkiran等。深度下降:更大的模型和更多数据损害。2019。Arxiv:1912.02292 [CS.LG]。[24] Alex Nichol和Prafulla Dhariwal。改进了扩散概率模型。2021。Arxiv:2102.09672 [CS.LG]。[25] Aaron van den Oord,Nal Kalchbrenner和Koray Kavukcuoglu。像素复发性神经网络。2016。Arxiv:1601.06759 [CS.CV]。[26] Prajit Ramachandran,Barret Zoph和Quoc V. Le。搜索激活功能。2017。Arxiv:1710.05941 [CS.NE]。 [27] Danilo Jimenez Rezende和Shakir Mohamed。 差异推断与归一化流量。 2016。Arxiv:1505.05770 [Stat.ml]。2017。Arxiv:1710.05941 [CS.NE]。[27] Danilo Jimenez Rezende和Shakir Mohamed。差异推断与归一化流量。2016。Arxiv:1505.05770 [Stat.ml]。