对Github的众多开源项目的安全问题报告的分析揭示了一个有关趋势的趋势:安全问题的扩散正在上升,而他们的决议进展缓慢,只有一小部分开发人员参与了这一过程(Bühlmann和Gha-Fari,2022年)。尽管密码学在安全性与数字世界无缝集成中的关键作用至关重要,但开发人员与现有的密码图库斗争。这些图书馆通常不支持共同的操作,缺乏足够的抽象,并且文档质量很差(Mindermann,Keck and Keck and Wagner,2018年; Hazhirpasand,Nierstrasz和Ghafari,2021a; Patnaik,Patnaik,Hallett和Rashid,2019年)。因此,API滥用可能是可能的,安全漏洞的主张也很可能。例如,在489个开源Java项目中对密码学的分析表明,有85%的API滥用(Hazhirpasand,Ghafari和Niersstrasz,2020年)。这些问题也存在于专有软件系统中。值得注意的是,研究人员已经确定了关键基础设施中的弱加密算法和遗产加密模式(Wetzels,Dos Santos和Ghafari,2023年)。Java加密体系结构(JCA)是最广泛采用的密码API,对称加密是软件系统中最重要的加密操作。在Stackoverflow上排名前100位的加密问题中的大多数以视图和分数排序是关于符号加密的。同样,它在使用JCA(Nadi,Krüger,Mezini和Bodden,2016年)的恒星排序的前100个GitHub项目中被64%采用。与先前的研究不同的是,在本文中,我们专门针对与JCA的对称加密,对其对开发人员的挑战提供了详细的看法。我们将定性和定量分析融合在一起,以发现开发人员的问题以及在
David Schuff:当然。如果我使用聊天功能生成考试题目,我不会直接将其复制粘贴到考试中,而是会根据我所知道的内容进行验证。我会确保问题有意义。这是一项很好的技能,或者说是学生应该具备的一项非常重要的技能,如果他们从 ChatGPT 获得答案,他们应该能够做到,他们不应该只是听信其言,他们应该根据他们所知道的内容进行三角测量,就像他们用 Google 搜索某些东西或去 StackOverflow 查找某些东西时,他们不应该只相信其表面意思。
Twitter上的软件开发人员是新的新版本,也就是说:“宣布发布新的软件版本,工具等的推文”。 [第一个是文章和多媒体共享(Tweets共享文章,博客,教程或与软件开发有关的视频),第二个是技术讨论(推文探讨了一些与软件开发有关的技术问题)。]的确,Copilot在发布VS代码之前每月平均每月1,097条推文;之后,每月平均有1,175条推文,推文增加了7%。TABNINE在发布VS代码之前每月平均每月246条推文;在平均每月329条推文之后,推文增加了34%。 由于我们有兴趣了解软件开发人员对第一代AI代码助理的反应,因此Twitter数据被证明是有价值的,因为它们通常包括这些助手的早期采用者以及其他技术(https://blog.twitter.com/en_us/aus/a/a/a/a/a/2016/2016/new-reseach-research-8-8-8-8-8-8-8-8-8-8-8-8-8-Ways-tech-tech-tech-tech---------------- Twitter是这一研究线的起点,并为其他平台(例如Stackoverflow和Reddit)留出了空间。TABNINE在发布VS代码之前每月平均每月246条推文;在平均每月329条推文之后,推文增加了34%。由于我们有兴趣了解软件开发人员对第一代AI代码助理的反应,因此Twitter数据被证明是有价值的,因为它们通常包括这些助手的早期采用者以及其他技术(https://blog.twitter.com/en_us/aus/a/a/a/a/a/2016/2016/new-reseach-research-8-8-8-8-8-8-8-8-8-8-8-8-8-Ways-tech-tech-tech-tech----------------Twitter是这一研究线的起点,并为其他平台(例如Stackoverflow和Reddit)留出了空间。
摘要 - Sonatype的2023年报告发现,有97%的开发人员和安全性领导了生成人工智能(AI),尤其是大语言模型(LLMS),纳入其开发过程。对这一趋势的安全含义的担忧已经提出。开发人员现在正在权衡LLM的好处和风险与其他依赖信息来源(例如Stackoverflow(SO)),需要经验数据以告知他们的选择。在这项工作中,我们的目标是在选择代码stippetsby经验比较chatgpt和stackoverflow的脆弱性时,提高软件开发人员对安全性的意识。为了实现这一目标,我们将现有的Java数据集与与安全有关的问题和答案中进行了。然后,我们问了同样的问题,所以我们收集了生成的代码以进行比较。策划数据集后,我们使用CodeQL分析了每个平台中108个摘要的共同弱点枚举(CWE)漏洞的数量和类型。ChatGpt生成的代码包含248个漏洞,产生的漏洞减少了20%,具有统计学上的显着差异。此外,Chatgpt产生了19种CWE类型,少于SO中的22种。我们的发现表明,开发人员对两个平台的不安全代码传播的教育程度不足,因为我们发现了274个独特的漏洞和25种CWE。由AI或人类创建的任何复制和粘贴的代码都不能盲目信任,需要良好的软件工程实践来降低风险。未来的工作可以帮助最大程度地减少任何平台的不安全代码传播。关键字:软件工程安全,实证研究,大语言模型,软件供应链,代码生成
摘要 — 本文提供了关于使用人工智能改进测试自动化实践的灰色文献调查结果。我们调查了 1,200 多个灰色文献来源(例如博客、白皮书、用户手册、StackOverflow 帖子),寻找专业人士关于如何采用人工智能来帮助开发和演进测试代码的亮点。最终,我们筛选了 136 份相关文档,从中提取了人工智能旨在解决的问题分类,以及针对此类问题的人工智能解决方案分类。手动代码开发和自动测试生成分别是被引用最多的问题和解决方案。本文最后总结了市场上最流行的六种工具,并对人工智能在测试自动化中的现状和未来进行了思考。索引术语 — 人工智能、测试自动化、灰色文献
• 临时工作和打工(例如 Zenjob、InStaff)、• 食品配送(例如 Deliveroo、Uber Eats、Just Eat)、• 研究招聘(例如 Prolific、Qualtrics)、• 约会(例如 Parship、Tinder、Bumble)、• 评论网站(例如 Kununu、Jameda、TripAdvisor、Yelp、Google Maps)、• 预约管理(例如 Doctolib、OpenTable)、• 应用市场(例如 Google Play、App Store)、• 价格比较(例如 Idealo、Verivox、Check24)、• 众筹(例如 Patreon、Kickstarter、GoFundMe、Indiegogo)、• 众筹投资(例如 Companiso、AngelList)、• 众筹借贷(例如 PeerBerry、Zopa、Ratesetter、Funding Circle、Auxmoney)、• 视频流(例如 Youtube、Twitch、Vimeo)、•音乐流媒体(例如 Spotify、Apple Music、Deezer)、游戏市场(例如 Steam、Epic Games Store)、知识交流(例如 StackOverflow、Quora)、社交和专业网络(例如 Facebook、Instagram、TikTok、Twitter、LinkedIn、Xing)、