GPT-5-Codex – OpenAI推出的Agent编程优化模型

GPT-5-Codex是什么

GPT-5-Codex 是 OpenAI 推出的专为编程优化的模型,基于 GPT-5 进一步强化。模型聚焦于真实世界的软件工程任务,如从零搭建项目、代码重构、调试、测试和代码审查等。模型能根据任务复杂度动态调整思考时间,简单任务秒回,复杂任务深度思考,支持独立完成长达 7 小时的复杂任务。模型代码审查能力出色,能精准发现关键缺陷,减少无效评论。GPT-5-Codex 支持多模态输入,能在云端查看图片或截图并展示工作成果,是开发者的强大编程助手。

GPT-5-Codex

GPT-5-Codex的主要功能

  • 代码生成与优化:根据自然语言描述快速生成高质量代码,支持多种编程语言、优化现有代码提升性能。
  • 代码审查:支持自动发现代码中的关键缺陷和潜在问题,提供详细审查报告帮助开发者快速定位和修复。
  • 交互式编程:在交互式会话中快速响应简单任务,同时能独立处理复杂任务,如大型重构,持续工作超过7小时。
  • 多模态输入:支持图片输入用在前端设计和UI任务,能展示工作进度的截图提供直观反馈。
  • 集成与扩展:无缝集成到VS Code、GitHub、ChatGPT等开发环境,支持网页搜索等外部工具调用提升开发效率。

GPT-5-Codex的性能表现

  • 代码生成与优化:在SWE-bench Verified基准测试中,GPT-5-Codex准确率达74.5%,高于GPT-5的72.8%,且在代码重构任务上准确率从GPT-5的33.9%提升至51.3%。
  • 动态思考时间:GPT-5-Codex能根据任务复杂度动态调整计算资源,简单任务token使用量比GPT-5减少93.7%,复杂任务token使用量增加102.2%,能独立工作超过7小时处理复杂任务。
  • 代码审查能力:GPT-5-Codex错误评论率仅4.4%,高影响力评论占比达52.4%,平均每个PR评论数从GPT-5的1.32条降至0.93条,能有效发现关键缺陷、减少无效评论。
  • 多模态处理:支持图片输入用于前端设计和UI任务,能展示工作进度的截图提供直观反馈,提升开发体验。
  • 集成与扩展:支持无缝集成到VS Code、GitHub、ChatGPT等开发环境,通过容器缓存技术使新任务和后续任务的中位完成时间缩短90%,提升开发效率。

 

GPT-5-Codex的核心优势

  • 优化方向:GPT-5-Codex是 GPT-5 的一个版本,专为在 Codex 中的代理编码进一步优化,训练重点是现实世界的软件工程工作,包括从零开始构建完整项目、添加功能和测试、调试、执行大规模重构以及进行代码审查等复杂任务。
  • 动态思考时间:根据任务复杂度自动决定投入多少计算资源。对于最简单的 10% 任务,比 GPT-5 减少 93.7% 的 token 使用量;面对最复杂的 10% 任务,花费两倍时间进行推理、编辑、测试和迭代,能独立工作超过 7 小时处理大型复杂任务。
  • 代码审查能力:被专门训练用在代码审查和发现关键缺陷,会导航代码库、推理依赖关系、运行代码和测试来验证正确性。在评估中,错误评论率仅 4.4%(GPT-5:13.7%),高影响力评论占比 52.4%(GPT-5:39.4%),平均每个 PR 0.93 条评论(GPT-5:1.32 条)。
  • 前端任务表现:在创建移动网站时的人类偏好评估中显示出显著改进。在云端工作时,支持查看用户提供的图片或截图输入,视觉检查进度,并向用户展示工作截图。

GPT-5-Codex的不足

  • 任务挑剔:对任务的范围和合理性有一定的限制,对于过于复杂的任务会直接拒绝。
  • 环境设置麻烦:在设置过程中,可能会对用户的开发环境做出错误的假设,导致需要手动重新配置系统文件和环境设置,增加使用前的准备工作。
  • 多Agent工作流问题:虽理解多个Agent的概念,但没有真正的子Agent,无法像Claude Code那样在长期研究任务中自动继续前进。

GPT-5-Codex的项目地址

  • 项目官网:https://openai.com/index/introducing-upgrades-to-codex/

GPT-5-Codex的应用场景

  • 软件开发全流程:从零开始构建完整项目,包括需求分析后的代码实现、功能添加、测试编写、调试及大规模代码重构等复杂任务。
  • 代码审查环节:在代码上线前自动进行审查,发现关键漏洞和潜在问题,帮助团队提高代码质量和开发效率。
  • 交互式编程协作:与开发者在交互式会话中配合,快速响应简单任务,同时能独立处理需要长时间思考的复杂任务,如大型重构。
  • 前端设计与开发:支持图片输入,用在前端设计和UI任务,能查看用户提供的设计图或截图,生成相应的代码,展示工作进度的截图。

OpenAI董事长:我们正处于‘AI泡沫’,未来会有人亏本钱

IT之家消息,OpenAI 董事长布莱特・泰勒上周(9 月 11 日)接受了科技媒体 The Verge 采访,聊及 AI 的方方面面。

采访中,主持人首先回顾了 OpenAI CEO 山姆・奥尔特曼关于“在 AI 领域,总有人会赔掉一大笔钱”的说法,泰勒对此表示认同,并表示:“我们确实处于一场 AI 泡沫之中,但这种泡沫属于是‘良性循环’。”

泰勒接着表达观点:“我认为 AI 和 20 世纪末、21 世纪初的互联网一样,在未来创造出巨大的经济价值,但这种价值也说明总有一天‘AI 泡沫’会被戳破很多人会亏掉本钱。我基于历史上各个领域的先例认为这种事情将在未来发生”。

他认为,这种泡沫说明 AI 行业风险巨大,但风险在机遇面前不值一提,他还将这种风口和 20 世纪末的互联网行业作比较:“我当年可是互联网行业的‘老兵’,虽然当时泡沫被戳破,大批公司倒闭,但 1999 年的那些人在某种意义上没做错任何事情”。

IT之家注:布莱特・泰勒(Bret Taylor)毕业于斯坦福大学,2003 年加入谷歌,先后领导谷歌地图、谷歌搜索等团队,后续出任推特董事会成员,并在 2021 年成为推特(现 X 平台)董事长,在马斯克收购后他离开推特在 2023 年担任 OpenAI 董事长

重要成果,“能动”的AI正成为科学发现新主体

上海创智学院发布重要成果,AI仅用两天自主发现超100种全新网络架构
“能动”的AI正成为科学发现新主体
正值创立一周年,上海创智学院日前发布一系列人工智能重要成果,其中被赋予“能动性”的AI仅用两天便自主发现超过100种全新的网络架构;首个规模化全流程机理可解释框架研究团队被列入全球最值得加入的4个可解释性研究阵地之一……
过去一年间,大模型展现出强大的“思考”能力,正快速迈向能够执行和解决实际问题的“能动性”新阶段。上海创智学院发布的“能动”认知智能项目首创“认知能动数据加工工艺”,将海量原始数据加工成“高品质数据燃料”。这种经过深度加工的认知能动数据,能够有效驱动和打造高认知、高能动的智能体。
该项目首次实现了支持AI进行长达数天深度思考与协作的科研模式。在实际测试中,AI仅用两天时间便自主发现了超过100种全新的网络架构,而人类专家发现一个新模型平均需要2000小时。此外,该项目在上海创智学院的编程实训比赛中,多次战胜人类开发者,甚至在夏令营中取得排名第一的优异成绩。这标志着“能动”的AI正成为科学发现的新主体。
与此同时,上海创智学院发布全球首个规模化全流程机理可解释框架,将深度网络中的隐含状态对应到现实世界的具体概念,首次在大模型注意力分解上取得领先成果,还可对关键神经元进行激活与调控,赋予模型“思想钢印”,显著提升可控性与安全性。该成果已获国际上顶尖机构高度评价,研究团队被列入全球最值得加入的4个可解释性研究阵地之一,标志着中国力量首次在该前沿领域实现从跟跑到领跑。
上海创智学院联合华东师范大学发布了全球首个基于大模型的创造力智能测评系统。该系统统一了情境的真实性、交互的智能性和过程的可追踪性,带来全新测评体验。在结果页,系统不仅能回顾完整的思维链条,还能量化各阶段亮点与不足,并生成个性化成长建议,使测评真正成为培养的起点,而非终点。
当前智能体应用越来越多,将多个智能体协作在一起完成任务正逐渐成为业界共识。上海创智学院还率先提出并启动了“智能体上链”项目,旨在打造全球首个基于区块链技术的可信智能体互联网——BetaWeb。用户可通过客户端提出复杂任务,互联网上的智能体则在协议支持下自由协作,“裁判”智能体负责监督和判定任务质量,区块链系统则确保身份认证、过程记录与价值分配的公平透明。
目前,上海创智学院已研发出智能体协作平台Holos河洛系统,接入了上百个公网智能体,能够完成科研报告撰写、论文审稿、数学建模、信息收集与解读等任务。该项目最大亮点在于提出了“可信”这一核心概念,这不仅是对人工智能协作模式的创新,更是对未来数字经济基础设施的一次前瞻性布局。
(来源:解放日报 记者 黄海华)

AI支出将大幅减速?高盛“拉响警报”:美股恐下跌20%!

财联社9月15日讯(编辑 卞纯)人工智能(AI)已经将美股推至历史新高,但高盛近日警告称,一旦AI支出放缓,美股可能会下跌20%

高盛分析师Ryan Hammond在一份研究报告中指出了一项风险:超大规模企业将不可避免地会削减AI支出

“如果长期增长预期回归到2023年初的水平,这意味着标普500指数目前的估值将下降15%至20%。” Hammond写道。

AI支出增长或将放缓

目前,AI支出仍在全速增长,但Hammond写道,一些分析师认为,2025年第四季度及2026年(AI支出增长)将大幅减速

Meta本月早些时候表示,未来三年将在人工智能领域投入6000亿美元。Meta首席执行官扎克伯格随后在Threads上发帖称,公司未来三年的投资可能超过6000亿美元。他还表示,到2030年,这一数字可能会“大幅增加”。

上周,微软与Nebius达成了一项为期五年、价值174亿美元的AI基础设施协议。这表明,美国大型企业仍在大举增加AI支出。

美股高度依赖AI带来风险

AI在美股表现中扮演着至关重要的角色。Slickchart 的数据显示,AI领域最大的受益者英伟达在标普500指数中的权重约为7%。

标普500指数中前八大公司均在AI领域投入巨资。它们正在加大对AI的投入,并打算推出应用AI的产品和服务。这八家公司市值占标普500指数总市值的36%以上。

在标普500指数“前10强”之外,也有一些企业巨头在大力投资AI,包括Palantir和思科等公司。

鉴于此,若AI交易逐渐消退,AI概念股下跌,无疑将拖累标普500指数从当前水平大幅走低

需要指出的是,AI支出增长可能还需要几年时间才会出现实质性放缓,而这种放缓也并不一定意味着大型科技公司完全退出AI支出。

但对于投资者而言,尽管眼下市场仍然对AI及其长期潜力充满热情,但提前考虑AI支出放缓可能带来的负面影响是一件好事。

(财联社 卞纯)

AI训练基础设施叙事再增强 | 投研报告

国金证券近日发布AI周观察:本周AI应用活跃度呈现分化,海外市场Gemini周均活跃度大幅提升,ChatGPT保持平稳,Claude则有所回落;国内市场豆包活跃度持续领先增长。模型层面,阿里巴巴与百度均发布重要新模型:阿里开源了兼具性能与极高效率的Qwen3-Next-80B-A3B,大幅降低了训练与推理成本;百度推出了在事实性和指令遵循上显著进步的深度思考模型文心X1.1,并已向所有用户开放。

以下为研究报告摘要:

本周AI应用活跃度呈现分化:海外市场Gemini周均活跃度大幅提升,ChatGPT保持平稳,Claude则有所回落;国内市场豆包活跃度持续领先增长。模型层面,阿里巴巴与百度均发布重要新模型:阿里开源了兼具性能与极高效率的Qwen3-Next-80B-A3B,大幅降低了训练与推理成本;百度推出了在事实性和指令遵循上显著进步的深度思考模型文心X1.1,并已向所有用户开放。

Rubin CPX标志着AI推理硬件架构正加速向分工与专用化演进。该芯片专注于prefill阶段,计算力达20PFLOPS FP4,配备128GB GDDR7,成本仅为R200的四分之一,却可提供逾六成性能。其设计弱化高带宽内存与NVLink,转而采用PCIe Gen6与流水线并行,大幅降低物料与系统成本,并推动prefill与decode阶段解耦,提高资源利用率。Rubin CPX有望提升单位资本支出的推理性能,加快投资回报周期,巩固英伟达领先地位,并加剧行业分化与竞争壁垒。

甲骨文FY26Q1展现出订单与资本投入的鲜明对比:RPO飙升至4550亿美元,同比增长359%,凸显AI云计算和数据库服务的强劲需求。公司据此将全年OCI收入增速指引上调至77%,并披露未来四年大幅扩张路径。为满足订单,公司上修FY26资本开支至350亿美元,集中投向数据中心设备,并采取“就绪即上架、上架即计费”的模式加快兑现。短期内自由现金流和利润率承压,但若产能如期释放,长期增长确定性仍然突出。

2025年7月,中国智能手机销量达到约2159万台,同比下滑1.09%。华为、小米、荣耀OPPO、vivo、以15.96%、15.13%、13.93%、13.47%、13.44%的份额排名前五。具体型号方面,iPhone16Pro销量排名第一,iPhone16ProMax、OPPO reno14排名第二、第三。7月国内PC市场销量基本同比持平,台式机销量约为158万台,同比下滑约4%。笔电销量约为191万台,同比增长约1%。

风险提示

芯片制程发展与良率不及预期

中美科技领域政策恶化

智能手机销量不及预期(国金证券 刘道明,黄晓军,麦世学)

摆脱对外依赖,日本押注国产AI

【环球时报综合报道】日本正加速开发本土(人工智能)AI生态系统以缓解对外国依赖加剧的风险。据日本时事通讯社12日报道,日本政府当天在首相官邸举行了AI战略本部首次会议,明确了扶持国内AI开发的方针。
日媒报道称,日本国内使用的生成式AI依赖于美国,此举旨在通过推进本土开发来应对安全风险。此次会议提交了一份“AI基本计划”草案,指出与美国和中国相比日本开发滞后的背景下,计划“在全社会范围内应用人工智能,并启动开发循环”,为日本带来“逆转攻势”。
据日本《读卖新闻》报道,日本在人工智能应用方面滞后,去年个人使用率仅为20%左右,企业使用率为50%,整体处于较低水平。草案指出“制定国家人工智能战略比以往任何时候都更加重要”,并提出了四项基本方针:加速推进应用、战略性地加强开发能力、治理主导、持续向AI社会转型。旨在让日本成为“世界上容易开发和应用AI的国家”。
关于人工智能应用,草案规定政府机构和地方政府应率先利用人工智能提升工作效率,同时建议将人工智能应用于国防能力的强化。草案将决定人工智能精度的“高质量数据”定位为“日本优势领域”,呼吁加强相关开发能力建设。 此外,日本政府还将推动开发融合日本文化和习俗的可靠的“国产AI”,并促进高质量日语数据库的建设。
该草案还指出了AI应用的风险,例如提供错误答案和传播虚假信息,以及对国家安全的影响。草案要求在发生侵权时进行彻底的政府调查,并牵头制定国际规则。
作为日本在人工智能领域的首份基础规划草案,该草案将提交至人工智能战略本部审议,预计年内通过内阁审议完成最终方案。今后将根据国内外情况每年进行修改。
日本《朝日新闻》12日分析称,ChatGPT推出至今已有3年左右的时间。在技术创新不断推进的背景下,日本政府也承认作为GDP规模世界领先的经济体,日本“在AI开发和应用方面落后于世界”。在面向AI的尖端半导体领域,日本正不得不依赖其他国家。此外,像ChatGPT这样目前尚且免费可用的AI,也可能会因收费化等企业战略调整而对日本国内的使用产生影响。
《朝日新闻》称,日本首相石破茂当天在会议上表示,“在安全保障方面,AI是极为重要的。在全球开发竞争加剧的背景下,须为扭转劣势尽快制定紧急支持政策,”并提出了致力于建设“一个人们因AI而幸福的社会”的愿景。
日本科学技术政策大臣城内实12日回答记者提问时表示,“随着全球人工智能开发和应用竞争的日益激烈,未来一两年的努力对于实现反守为攻至关重要,我们决不能停滞不前。政府将积极支持私营企业和研究机构开发国产AI。”
据美国斯坦福大学的一项调查显示:2024年日本民间对AI的投资额约为9亿美元,而美国的民间投资额则为1091亿美元。(杨晨)
(来源:环球时报)

音乐模型新突破:MiniMax Music 1.5上线,4分钟时长、回归“好听”本质

Music 1.5 支持长达4分钟的音乐创作,出品即成品,不再仅是demo小样,并可对歌曲的风格、情绪和场景进行自定义和强控制。只需给出一句简单的自然语言描述,Music 1.5 即能交付超高完成度的作品。高级模式下,还可以对歌曲的不同段落,如前奏Intro、主歌Verse、副歌Chorus等进行具体歌词编排。

阿里通义正式发布:Qwen3-Next-80B-A3B 双模型!

我们正式发布:Qwen3-Next-80B-A3B 双模型!

⚡️ 核心技术创新
1️⃣ 【混合动力引擎】75%高效 + 25%精准 = 长文处理更稳更快
经过多次实验,我们发现这个比例在速度和效果之间找到了一个比较好的平衡点。
🔹 75%,用Gated DeltaNet(线性注意力):处理32K、64K、甚至256K的超长文本时,速度飞快,内存占用线性增长,绝不“越长越卡”。
🔹 25%,用Gated Attention(门控注意力):负责精准召回关键信息,确保模型“记得住重点”,不会在长文中迷失。

2️⃣ 【极致省钱架构】80B总参,推理时只用约3B
我们希望大家在享受大模型能力的同时,无需为用不到的算力买单。

为了让大模型在推理时更“轻便”,我们调整了MoE结构:
🔹 总共准备了 512个专家,覆盖各种知识和技能。
🔹 但每次处理请求时,只会动态选择最相关的10个专家 + 1个共享专家 来工作。
🔹 虽然模型总参数是80B,但实际参与计算的只有大约3B,算力利用率大约是3.7%。

3️⃣ 【预训练加速机制】一次多猜几个字,长文生成更快
我们做了一个小改动:在模型预训练阶段,就教它一次预测多个token,这个技术叫 MTP。
🔹 不是外挂的加速工具,而是模型“天生”就会的技能。
🔹 在生成长文本(比如32K以上)时,显著减少推理步数,实测吞吐量比Qwen3-32B提升了10倍+。

🎯 适合场景
🔹 要处理很长的输入文本(KV Cache固定,不会爆显存)
🔹 对推理速度和稳定性要求高(MTP加速 + 高接受率)
🔹 希望用大模型容量,但不想每次推理都“全功率运行”(80B总参,3B激活)
🔹 需要指令响应 or 深度推理能力(双版本针对性优化)

支持多端体验(链接见评论区)
🔹 阿里云百炼(API调用)
🔹 GitHub / 魔搭 / Hugging Face(开源模型)
🔹 QwenChat 网页版(在线即用)

使用工作流扣子工作流如何操作

工作流是一系列可执行指令的集合,用于实现业务逻辑或完成特定任务。你可以在智能体和应用搭建中通过工作流实现特定的任务或指令。

搭建工作流

无论是在智能体还是应用中使用工作流,都需要先创建一个可运行的工作流。

步骤一:创建工作流

  1. 登录扣子平台。
  2. 在左侧导航栏中选择工作空间,并在页面顶部空间列表中选择目标工作空间。
  3. 资源库页面右上角单击 +资源,并选择工作流
  4. 设置工作流的名称与描述,并单击确认
清晰明确的工作流名称和描述,有助于大语言模型更好地理解工作流的功能。
创建后页面会自动跳转至工作流的编辑页面,初始状态下工作流包含开始节点和结束节点。
    • 开始节点用于启动工作流。
    • 结束节点用于返回工作流的运行结果。

步骤二:编排工作流

创建工作流后,你在画布中添加节点,并按照任务执行顺序连接节点。
工作流内置了多种基础节点供你使用,同时你还可以添加插件节点来执行特定任务。如果你在插件商店中收藏了某些插件,则添加节点面板中将自动展示你所收藏的插件,便于你直接调用。
  1. 在底部面板中选择要使用的节点。
  1. 将各个节点相连接。
  2. 配置节点的输入和输出参数。

步骤三:测试并发布工作流

要想在智能体内使用该工作流,则需要发布工作流。
  1. 单击试运行
如果输入参数包含图片、视频等文件类型,试运行时可以上传文件或输入文件 URL。
运行成功的节点边框会显示绿色,在各节点的右上角可查看节点的输入和输出。
  1. 单击发布
发布时你可以选择之前试运行阶段已保存的测试集作为默认测试集,发布后,该空间内的其他用户使用该工作流时,可以使用该测试集进行试运行和测试。

在智能体中添加工作流

添加工作流

  1. 前往当前工作空间的智能体页面,选择进入指定智能体。
  2. 在智能体编排页面的工作流区域,单击右侧的加号图标。
  3. 添加工作流对话框,在我创建的页面选择自建的工作流。
  1. 在智能体的人设与回复逻辑区域,引用工作流的名称来调用工作流。

设置工作流异步运行

工作流默认为同步运行,即智能体必须在工作流运行完毕后才会将工作流的输出传递给智能体用户。如果工作流复杂,或包含一些运行耗时长的节点,可能会导致工作流整体运行耗超过 10 分钟,智能体判断为工作流运行超时,在其运行完毕前就结束对话。例如包含图像流节点、多个大模型节点,或编排逻辑复杂的工作流节点。
在这种场景下,你可以设置工作流为异步运行,设置后,智能体对话不依赖工作流的运行结果,工作流超时时间延长至 24 小时。工作流异步运行时会默认返回一条预设的回复内容,用户可以继续与智能体对话,工作流运行完毕后智能体会针对触发工作流的指令做出最终回复。
  • 如果工作流或节点运行超时,智能体可能无法提供符合预期的回复。各场景的超时时间可参考工作流使用限制
  • 工作流异步运行,仅在调试智能体或与商店中的智能体对话时生效,飞书、豆包等渠道暂不支持工作流异步运行。
  • 工作流开启异步运行后,模型节点无法查看对话历史。
开启异步运行:
  1. 在指定工作流右侧单击设置
  1. 开启异步运行,并设置回复内容
回复内容是工作流在异步运行时,智能体回复用户的默认文案。
异步运行效果:

在应用中添加工作流

扣子支持在项目中创建一个新的工作流或复制一个已有的工作流使用。
在资源列表中,找到工作流,然后选择一种添加方式。
  • 新建工作流:在该项目中创建一个新的工作流。
新创建的工作流只能在项目中使用,无法共享给其他项目使用。
  • 引入资源库文件:复制一个项目所属的工作空间内已发布的工作流到该项目中使用。
复制后,你可以对这个工作流进行修改。在项目中对工作流的修改不影响资源库中的工作流。
添加工作流后,你可以根据实际需求修改节点配置,或新增新的节点。

查看引用资源

扣子工作流提供资源引用页面,帮助你快速查看扣子应用中已添加的工作流、插件、数据库等资源,以便理解扣子应用中各项资源的引用关系,从而更高效地管理资源、定位问题。
在工作流编排页面右上角单击引用关系图标,页面将自动跳转到资源引用页面。
资源引用页面展示扣子工作流引用的子工作流、插件、数据库、知识库等资源,箭头从 A 指向 B 表示 A 引用了 B。例如在下图中,gen_zhuzhu_image 工作流直接引用了 test 知识库、头条搜索插件和 search 工作流。你还可以单击资源卡片,在新标签页中查看资源详情。
资源库中的工作流支持查看引用的资源版本,例如子工作流的版本、插件版本等。

复制工作流

  • 在某一工作流的编辑页面,单击右上角的创建副本图标,可以将该工作流复制到你的工作流列表中。
  • 支持跨画布复制节点。
在画布中选择并复制已配置好的节点,然后切换到目标画布,直接粘贴即可。

删除工作流

对于不再需要使用的工作流,你可以在工作流列表内找到该工作流,并在操作列单击删除图标。
如果工作流已添加至智能体,在删除时会同步删除智能体中的工作流。

导出与导入工作流

工作流(包含对话流)支持导出为 Zip 格式的压缩包,该压缩包可灵活导入至任意工作空间来创建一个新的工作流,适用于历史版本管理或跨空间、跨账号复制工作流等场景需求。
  • 历史版本管理:能够基于历史版本创建新的工作流,即导出某个历史版本的工作流,通过导入创建一个新的工作流。
  • 跨空间、跨账号复制工作流:直接将导出的压缩包导入至目标账号的工作空间中,就能完成完整的工作流复制。

注意事项

在导出与导入工作流前,请先阅读如下注意事项:
注意事项
说明
支持的套餐版本
个人进阶版、团队版、企业版套餐支持工作流导出、导入操作。
导出工作流
  • 导出的 Zip 压缩包为加密格式,不支持解压查看或编辑。
  • 支持修改压缩包名称,但请勿修改压缩包后缀,否则会导入失败。
  • 扣子应用专属的工作流不支持导出、导入。
工作流配置
当工作流中添加了知识库、数据库、私有插件、子工作流等资源时:
  • 同空间内导出后再导入,配置不受影响,工作流可正常运行。
  • 跨空间导入后,上述添加的资源将失效,需重新选择所在空间内的资源。
敏感信息处理
导出工作流时,系统会自动检测工作流中的敏感信息(如 HTTP 节点的鉴权信息),并提示是否同步导出。
如果工作流中包含鉴权信息,请谨慎选择,避免泄露。
  • 如果选中鉴权信息,那么系统会将鉴权信息导出到压缩包中。导入时,系统会同步导入鉴权信息。
  • 如果未选中鉴权信息,系统会将自动清除鉴权信息。导入时,你需要重新配置鉴权信息。

导出操作

你可以在资源库列表页面、工作流编排页面或发布历史列表页面,单击导出,导出工作流。
在导出过程中,请勿删除任务,删除任务将导致导出失败。

导入操作

你可以在资源库列表页面、智能体编排页面,单击导入,导入工作流。导入时,你需要上传已导出的工作流 Zip 压缩包,系统将自动读取压缩包内的信息,预填工作流的名称和描述。导入完成后,即可实现工作流的完整复制。
导入后的工作流,默认为草稿状态。

扣子coze工作流介绍

工作流是一系列可执行指令的集合,用于实现业务逻辑或完成特定任务。它为应用/智能体的数据流动和任务处理提供了一个结构化框架。工作流的核心在于将大模型的强大能力与特定的业务逻辑相结合,通过系统化、流程化的方法来实现高效、可扩展的 AI 应用开发。
扣子提供了一个可视化画布,你可以通过拖拽节点迅速搭建工作流。同时,支持在画布实时调试工作流。在工作流画布中,你可以清晰地看到数据的流转过程和任务的执行顺序。

工作流与对话流

扣子提供以下两种类型的工作流:
  • 工作流(Workflow):用于处理功能类的请求,可通过顺序执行一系列节点实现某个功能。适合数据的自动化处理场景,例如生成行业调研报告、生成一张海报、制作绘本等。
  • 对话流(Chatflow):是基于对话场景的特殊工作流,更适合处理对话类请求。对话流通过对话的方式和用户交互,并完成复杂的业务逻辑。对话流适用于 Chatbot 等需要在响应请求时进行复杂逻辑处理的对话式应用程序,例如个人助手、智能客服、虚拟伴侣等。

节点

工作流的核心在于节点,每个节点是一个具有特定功能的独立组件,代表一个独立的步骤或逻辑。这些节点负责处理数据、执行任务和运行算法,并且它们都具备输入和输出。每个工作流都默认包含一个开始节点和一个结束节点。
  • 开始节点是工作流的起始节点,定义启动工作流需要的输入参数。
  • 结束节点用于返回工作流的运行结果。
通过引用节点输出,你可以将节点连接在一起,形成一个无缝的操作链。例如,你可以在代码节点的输入中引用大模型节点的输出,这样代码节点就可以使用大模型节点的输出。在工作流画布中,你可以看到这两个节点是连接在一起的。

在使用节点编排工作流时,灵活性和扩展性是实现高效编排的关键。工作流的开始节点、结束节点、输出节点、插件节点、子工作流节点、代码节点、SQL 自定义节点、新增数据节点、查询数据节点、更新数据节点、删除数据节点、问答节点、批处理节点、循环节点、变量聚合节点、变量节点、选择器节点均支持多种变量类型,包括 String、Integer、Number、Boolean、Object、File 和 Array等。你可以根据实际需求灵活选择合适的数据类型,而无需额外的数据转换,从而提升工作流编排的灵活性和扩展性。