Linux 对 AI 生成代码制定规则:允许使用 Copilot 等辅助工具,人类承担失误责任

Linux 对 AI 生成代码制定规则:允许使用 Copilot 等辅助工具,人类承担失误责任
Linux 对 AI 生成代码制定规则:允许使用 Copilot 等辅助工具,人类承担失误责任

IT之家 4 月 12 日消息,据科技媒体 Tom's Hardware 今天报道,经历数月争论后,Linux 内核维护团队为 AI 生成代码制定正式准则,允许使用 GitHub Copilot 等辅助编程工具,但所有 Bug、安全问题最终都要由提交代码的人担责

IT之家在此援引 Tom's Hardware,这项政策出台前,开源社区围绕 AI 的争论已经持续很长时间,并在今年 1 月达到高潮。当时英特尔工程师 Dave Hansen 和甲骨文员工 Lorenzo Stoakes,就“是否严格限制 AI 工具”产生激烈争吵。

最终 Linux 创始人 Linus Torvalds 亲自下场终结这场争论,称全面禁止 AI 只是毫无意义的作秀。

Linus Torvalds 的立场非常纯粹认为 AI 只是工具。他认为提交垃圾代码的人本来就不会遵守规则,因此与其限制开发者用什么工具,不如直接追究‘提交者’的责任。这种强调结果的现实主义,与部分开源社区“见 AI 就踩一脚”形成鲜明对比。

不过这项政策出台之前,各大开源项目的做法各有不同,NetBSD、Gentoo 直接禁止 AI 生成代码,后者甚至认为大模型生成内容在法律上属于“污染”,因为训练数据的版权来源并不明确。

这就带出了另一个争议焦点:原创声明(DCO)。它要求开发者必须确保自己提交的代码拥有所有权,但 AI 大模型训练时使用的很多代码都受 GPL 等许可证约束等于说开发者无法完全保证 AI 生成代码的来源合法性

除了合规问题,开源社区维护者现在每天都要看到一堆 AI 垃圾代码,其中 cURL 被大量幻觉代码淹没,被迫关闭漏洞奖赏计划。Node.js 和 OCaml 收到上万行 AI 补丁,引发内部争议。

并且,社区成员也非常反感隐瞒使用 AI 的行为,例如 Sasha Levin 曾在未披露的情况下提交 AI 生成的 Linux 补丁,虽然代码能跑但性能非常差,连 Torvalds 都承认评审不充分。

而 Linux 非常直截了当,新规并不禁止 AI,但要求所有开发者必须写明代码是否由 AI 生成,同时将失误责任划分给人类开发者等于是将“谁签字,谁负责”换成了“谁点提交,谁负责”

来源: www.ithome.com 查看原文