确保AI与社会利益保持一致是我们时代的关键挑战。我相信,教育在实现这一目标方面可以发挥至关重要的作用 - 教授AI中的技术主题必须与促进对AI更广泛影响的积极思考相结合。此外,重要的是要通过调整教育过程来说明生成性AI的可用性来为学生做好现实世界中的挑战。以前,我曾帮助在包括机器学习,概率和统计数据以及高级算法在内的多个机构中教授九门课程。此外,我还监督了学士学位,硕士和博士学位的13名学生,他们的工作导致了学术区别和多个顶级出版物[Neurips'21],[Neurips'24C],[ICML'24]。展望未来,我渴望开发和教授涵盖AI,AI安全和LLM代理的课程,以及与LLMS,机器学习,入门数学和计算机科学相关的更通用课程。
1 乌克兰国立生命与环境科学大学,基辅,乌克兰,mira-i@ukr.net 2 乌克兰国立美术与建筑学院,基辅,乌克兰,tetiana.tsoi@naoma.edu.ua,ORCID ID:https://orcid.org/0000-0003-4413-1478 3 瓦西里·斯特凡尼克喀尔巴阡国立大学,伊万诺-弗兰科夫斯克,乌克兰,ihor.hoian@pnu.edu.ua,ORCID ID:https://orcid.org/0000-0003-2548-0488 4 瓦西里·斯特凡尼克喀尔巴阡国立大学,伊万诺-弗兰科夫斯克,乌克兰,maksimdoichyk@ukr.net,ORCID ID:https://orcid.org/0000-0001-5081-1386 5 马卡罗夫海军上将国立大学造船大学,乌克兰尼古拉耶夫,oksana.patlaichuk@nuos.edu.ua,ORCID ID:https://orcid.org/0000-0002-1448-3360 6 海军上将马卡洛夫国立造船大学,乌克兰尼古拉耶夫,olga.stupak@nuos.edu.ua,ORCID ID:https://orcid.org/0000-0001-7846-1489
自从人工智能 (AI) 应用于航天领域以来,它一直在不断变化,既带来了好处,也带来了风险。人工智能技术已经开始影响人权和自由,以及与公共当局和私营部门的关系。因此,人工智能的使用涉及因依赖特定技术而产生的影响和后果而产生的法律义务。这表明需要调查在太空活动中使用人工智能的法律问题和风险问题,以识别、描述和解释一般法律问题和困境,特别是航天领域的法律问题和困境。作者通过逻辑语义方法在定义的领域制定了理论定义。比较方法使我们能够对美国、中国和欧盟航天领域的人工智能法律法规进行比较分析。作者重新思考了在起诉自主空间物体造成的损害时的行为、因果关系、法人资格问题。以及将现有的空间法及其国家责任与私人参与者使用自主物体的太空活动相结合。