Loading...
机构名称:
¥ 1.0

[1] Ferhat Erata和Remi Dalmas。指南针:使用压缩和组装缓解大语言模型中的幻觉。预印本,2025。(在准备下)。[2] Yoshiki Takashima和Ferhat Erata。与冲突驱动的子句在信中学习的缩放组合推理。Preprint,2025。https://ferhat.ai/publication/takashima-2025-scaling/takashima-2025-scaling.pdf。[3] Ferhat Erata,Orr Paradise,Timos Antonopoulos,Thanhvu Nguyen,Shafi Goldwasser和Ruzica Piskac。学习随机减少和程序属性。Preprint,2024。https://arxiv.org/abs/2412.18134。[4] Ferhat Erata,Theodoros Trochatos,Barbora Hrda,Yizhuo Tan和Jakub Szefer。学习量子电路保护的随机自我还原。在ACM Sigsac计算机和通信安全会议上(CCS),2025。(正在审查)。[5] Ferhat Erata,Ruzica Piskac,Victor Mateu和Jakub Szefer。在恒定的加密代码中自动检测单轨侧通道漏洞。在IEEE欧洲安全与隐私研讨会(Euros&P),2023年。

简历.pdf

简历.pdfPDF文件第1页

简历.pdfPDF文件第2页

简历.pdfPDF文件第3页

相关文件推荐

2025 年
¥1.0
2025 年
¥1.0
2025 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2025 年
¥1.0
2025 年
¥1.0
2025 年
¥1.0
2023 年
¥1.0
1900 年
¥1.0
2025 年
¥1.0
2025 年
¥2.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2025 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2025 年

pdf

¥1.0
2024 年

pdf

¥1.0