研究发现使用GithubCopilot等AI工具辅助编写的代码漏洞相对来

,来自斯坦福大学的多名计算机科学家发现,用Github Copilot和脸书·因科德(Michael in coder)等人工智能工具编写的代码安全性低于人类程序员编写的代码。

在最近发表的《用户是否用ai助手编写了更多的插入代码?在这篇论文中,斯坦福大学的Neil Perry、Megha Srivastava、Deepak Kumar和Dan Boneh给出了肯定的答案。更糟糕的是,他们发现AI help经常在产品质量上误导开发者。

IT之家了解到,这些科学家在他们的论文中写道:“我们发现,完全由人类程序员编写的代码,以及在AI辅助下编写的代码,产生了明显更多的安全漏洞,尤其是在字符串加密和SQL注入方面。而且令人惊讶的是,与无法访问AI助手的参与者相比,提供访问AI助手的参与者更容易相信自己编写了安全代码”。

斯坦福大学的作者表示,这项研究的范围是有限的,因为它只考虑了有限的一组提示,这些提示对应于25个漏洞和三种编程语言:Python、C和Verilog。斯坦福用户研究涉及47名不同经验水平的人,包括本科生、研究生和行业专业人士。