Loading...
机构名称:
¥ 1.0

访问大规模和高质量数据已被证明是机器学习模型性能的最重要因素之一。最近的作品表明,大型(语言)模型可以通过来自来自不同(域特异性)来源的大量数据培训,并与用户意图保持一致。但是,某些数据源的使用可能会引发隐私,公平,版权和安全问题。生成人工智能的令人印象深刻的性能推广了合成数据的使用,许多最近的作品建议(指导)合成对于通用和特定领域的应用都可以有用。例如,Yu等。2024,Xie等。2024,Hou等。2024展示了合成私有数据的有希望的初步结果,而Wu等人。2024强调了现有的空白和挑战。作为自我教学等技术(​​Wang等人2021)和自我调整(Li等人2024)获得牵引力,研究人员正在质疑合成数据的含义(Alemohammad等人2023,Dohmatob等。2024,Shumailov等。2024)。合成数据最终会解决机器学习的数据访问问题吗?本研讨会旨在通过强调合成数据的局限性和机会来解决这个问题。它的目的是将研究算法的研究人员和合成数据的应用,机器学习的一般数据访问,保护隐私的方法(例如联合学习和差异隐私)以及大型模型培训专家讨论学习经验教训并绘制重要的未来方向。

2024-WorkShop合成-Google Docs

2024-WorkShop合成-Google DocsPDF文件第1页

2024-WorkShop合成-Google DocsPDF文件第2页

2024-WorkShop合成-Google DocsPDF文件第3页

2024-WorkShop合成-Google DocsPDF文件第4页

2024-WorkShop合成-Google DocsPDF文件第5页

相关文件推荐

2024 年
¥3.0
2024 年
¥2.0
2024 年
¥2.0
2024 年
¥1.0
2024 年
¥1.0
1900 年
¥37.0
2024 年
¥1.0
1900 年
¥13.0
2024 年
¥20.0
2020 年
¥1.0
2024 年
¥7.0
2025 年
¥27.0
2024 年
¥1.0
2024 年
¥1.0
1900 年
¥1.0
2024 年
¥5.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥6.0
2024 年
¥1.0
2025 年
¥53.0
2025 年
¥6.0
2024 年
¥3.0
2024 年
¥1.0