微软发布2025年度的《负责任 AI 透明度报告》,进一步强化微软持续打造值得信任 AI 技术的承诺。这次报告 …
微软发布 2025 《负责任人工智能透明度报告》

微软自 2024 年发表首份《负责任 AI 透明度报告》以来,获得全球利害关系人提供宝贵洞见,为今年度的《负责任 AI 透明度报告》提供重要依据,也进一步强化微软持续打造值得信任 AI 技术的承诺。这次报告重点说明微软的最新进展:如何负责任地建构与部署 AI 系统、如何支持客户与更广泛的生态系,以及如何从实务中持续学习与演进的过程。
微软指出,过去一年,规模大小各异的企业纷纷导入人工智慧 AI,进一步凸显实践有效 AI 治理的重要性。该公司的客户与合作伙伴高度关注我们如何扩展内部 AI 治理计画,以及如何将高层次的规范准则,转化为可实践的开发工具与具体作法。
业界也意识到,建立值得信赖的 AI 不仅有助于提升业务表现,更能透过良好治理释放 AI 的潜能。据 IDC 进行的《微软负责任 AI 调查》,超过三成的受访者指出,缺乏治理与风险管理解决方案是导入与扩展 AI 的主要障碍。相对地,在已采用负责任 AI 风险管理工具的受访者中,超过 75% 表示这些工具有助于改善资料隐私、提升客户体验、做出更有信心的商业决策,并增进品牌声誉与信任度。
过去一年,全球陆续推出各项 AI 法规与监管新措施。微软近十年来持续不懈,将负责任 AI 的原则落实为具体实践,已做好充分准备以遵循相关规范并协助客户共同实现合规目标。然而,微软的工作尚未停止,仍在持续发展促进 AI 技术跨境应用所需的高效、可行之监管与执行架构。微软将持续提供实务洞见,参与全球标准与规范的制定工作。
在 AI 治理的各个层面,保持灵活应变的策略至关重要。微软从实际部署中不断学习,并依据最新技术发展持续调整实务做法,同时积极回应利害关系人的反馈意见。随着治理实务不断演进,也将透过未来的年度透明度报告及其他公开平台,主动分享最新洞见与经验。
隨著 AI 創新與應用持續推進,微軟的核心目標始終不變:致力於贏得信任,這是推動 AI 在全球普及應用與良善發展的根本基石。
Microsoft负责任人工智能透明度报告
持续强化负责任 AI 工具,将风险衡量与缓解机制扩展至文字以外的多模态内容,例如影像、音讯和影片,并新增对各类代理型系统(agentic systems)的支援。这类半自主系统预期将成为 AI 投资与创新的重要发展领域。
采取主动且多层次的方式,因应新法规要求,并为客户提供各式资源与资料,协助他们在符合法规的前提下持续创新。微软先期在建构全面且领先业界的负责任 AI 计画上所做的投入,使我们能全力加速 AI 合规准备工作。
持续透过部署前审查与模拟入侵攻击,于各项 AI 发表中采用一致的风险管理方法。其中包括对高影响力及高风险的 AI 与生成式 AI 应用进行监督与审查,包括所有新增至 Azure OpenAI 服务的旗舰模型与每次 Phi 模型的发表。为进一步强化这些审查中负责任 AI 相关文件的作业,我们推出一项内部工作流程工具,用以统整《负责任 AI 标准》中所列的各项要求。
微软的「敏感用途与新兴技术(Sensitive Uses and Emerging Technologies)」团队持续为高影响力与高风险的 AI 应用提供实务指导与咨询。生成式 AI 在医疗与科学等领域的应用显著成长,成为去年的关键发展重点。该团队透过跨案例洞见与研究人员的深入交流,得以及早针对新兴风险与 AI 技术能力提供前期指引,进而推动创新,并孕育新的内部政策与指导原则。
持续以研究洞见为依据,加深对 AI 最新发展所涉及的社会与技术议题的理解。为此,微软成立 AI 前瞻实验室(AI Frontiers Lab),专注投入于推动 AI 系统在能力、效率与安全性上的核心技术突破。
与全球各地的利害关系人合作,致力于推动一致性的 AI 治理方法,加速 AI 的采用,并协助各类组织跨境持续创新与应用 AI 技术。其中包括出版一本探讨各领域治理实务的专书,以及推动 AI 系统测试的统一标准。
为使全球各地的个人与组织能充分运用 AI 的变革潜力,微软在预测与管理 AI 风险能力上,必须与技术创新同步发展。这需要打造能迅速因应 AI 能力演进及多元部署情境的工具与实务作法,因为各种情境往往伴随各自独特的风险样貌。为此,我们将进一步扩大对风险管理系统的投资,提供可因应各类部署情境中常见风险的工具与实务指引,并推动微软内部各团队间共享测试资料集、缓解措施与最佳实务,提升整体治理效能。
建立、赢得并维系对 AI 的信任,是一项需由模型开发者、应用程式建置者与系统使用者共同参与的协作过程,三方须在设计、开发与营运各层面落实可信原则。包括《欧盟人工智慧法案》在内的相关法规,亦体现供应链各方之间资讯流通与透明化的必要性。
微软支持这项「共享责任」的理念,也深知在快速演变的 AI 生态体系中,厘清各方责任的分工与协作关系并不容易。为促进对实务运作的共同理解,我们正持续深化内外部的相关工作,进一步厘清各角色的职责与期待。
AI 风险衡量与评估相关的科学,仍处于初步发展阶段,但已显现快速成长的趋势。微软承诺将持续在内部投入资源,推动该领域的成熟发展,包含推动前瞻性研究,以及开发可支援大规模应用的工具。我们也承诺将与更广泛的生态系分享最新的工具进展与最佳实务,促进 AI 风险衡量与评估领域中共享规范与标准的建立与发展。