软件开发人员对人工智能工具的热情就像孩子们发现糖果一样,但他们对成果的信任程度却与政客的承诺差不多。
Google Cloud 的 2025 年 DORA 报告, 周三发布数据显示,目前 90% 的开发人员在日常工作中使用人工智能,较上年同期增长 14%。从去年开始。
报告还发现,只有 24% 的受访者真正信任这些工具产生的信息。
这项年度研究调查了全球近 5,000 名技术专业人士,描绘了一个试图快速发展而不破坏现状的行业图景。
开发人员每天平均花费两小时与人工智能助手协作,将其融入从代码生成到安全审查等各个环节。然而,其中 30% 的专业人士对人工智能的输出“有点信任”或“完全不信任”。
负责谷歌编码工具(包括 Gemini Code Assist)的 Ryan Salva 表示:“如果你是谷歌的一名工程师,那么使用人工智能作为日常工作的一部分是不可避免的。”告诉 CNN.
谷歌自己的数据显示,目前超过四分之一的新代码来自人工智能系统,首席执行官 Sundar Pichai声称整个工程团队的生产力提高 10%。
开发人员主要使用 AI 来编写和修改新代码。其他用例包括调试、审查和维护遗留代码,以及用于解释概念或编写文档等更具教育意义的用途。

尽管缺乏信任,但超过 80% 的受访开发人员表示人工智能提高了他们的工作效率,而 59% 的开发人员表示代码质量有所提高。
然而,事情变得奇怪了:65%的受访者表示自己严重依赖这些工具,尽管他们并不完全信任它们。
在该群体中,37% 的人表示依赖程度为“中度”,20% 的人表示依赖程度为“严重”,8% 的人承认依赖程度为“很大”。
信任-生产力悖论与 Stack Overflow 的调查结果一致2025年调查尽管人工智能的准确率很高,但人们对其准确率的不信任在短短一年内就从 31% 上升到了 46%。全年采用率为 84%。
开发人员将人工智能视为才华横溢但不可靠的同事——对于集思广益和繁重的工作很有用,但一切都需要仔细检查。

DORA:推动人工智能原生工作
谷歌的回应不仅仅是记录这一趋势。
周二,该公司揭开其 DORA AI 能力模型是一个框架,确定了七种实践,旨在帮助组织利用 AI 的价值而不承担风险。
该模型提倡以用户为中心的设计、清晰的沟通协议以及谷歌所称的“小批量工作流程”——本质上是为了避免无人监督的人工智能运行。
报告还介绍了各种团队原型,从“和谐的高成就者”到陷入“遗留瓶颈”的群体。
这些概况源于对不同组织处理AI集成方式的分析。拥有强大现有流程的团队发现AI放大了他们的优势。而碎片化的组织则发现AI暴露了他们工作流程中的所有弱点。
人工智能辅助软件开发的完整现状报告 配套的 DORA AI 功能模型文档可通过 Google Cloud 的研究门户获取。
这些材料包括针对希望更积极主动地采用人工智能技术的团队的规范性指导——假设有人足够信任他们并愿意实施这些技术。