•意大利萨勒诺大学的Stefano Cirillo,scirillo@unisa.it•意大利政治家迪利诺里诺的Eliana牧师,远程信息处理,CNR,意大利,serena.tardelli@iit.cnr.it•中国科学技术大学Mengxiao Zhu,中国,mxzhu@ustc.edu.cn作为大语言模型(LLMS)正在迅速发展,并越来越多地整合到各个社会中,并越来越多地整合到社会上,越来越多的社会影响,越来越多的社会,越来越多的社会,跨越了社会,跨越了越来越多的社会,并且越来越多地影响,越来越多地涉及越来越多的社会,并且越来越多是必不可少的。最近对生成人工智能(AI)的研究强调了对偏见,错误信息和意想不到的社会影响的重大关注。高级方法,例如多模式的信誉评估,公平限制,基于检索的技术,内容节制和人类反馈,对降低这些风险的有望,但仍然不完善。研究还揭示了更广泛的社会影响,包括对经济部门的潜在影响和Echo Chambers的强化,强调了对全面风险评估框架的需求。除了这些问题外,越来越强大的文本对图像,文本对视频以及文本到语音生成的AI模型的传播能够生成逼真但人为的图像,视频和音频引入了几种新风险。尽管安全过滤器和迅速节制的进步,但大多数有害的产出继续逃避这些保障措施,从而对个人和团体构成道德和法律威胁。产生合成媒体的技术,包括深击和超现实的化身,在娱乐和教育中具有潜在的应用,但在隐私,错误信息和网络安全等领域中也构成了严重的威胁。这些风险超出了个人的伤害,可能破坏了公众对数字媒体的信任并损害民主进程。与Tist的使命保持一致,以使智能和AI驱动的系统能够在现实世界中以负责任的态度感知,理性和行动,因此本期特刊邀请了原始的研究和创新框架,以探索在线和离线的生成AI风险,并提出了可行的解决方案。
主要关键词