字節跳動推出、內建原生編輯的思維鏈圖片模型
Seedream 5.0 是字節跳動 Seed 團隊推出的圖片生成模型,Lite 版本於 2026-02-13 正式上線。Seedream 5.0 與過往圖片模型的兩大架構差異在於:思維鏈視覺推理,模型會先思考再算圖;以及即時搜尋,能在生成過程中從網路抓取最新資訊。一段 Seedream 5.0 提示詞還可直接處理原生圖片編輯——局部修改、主體替換、光線調整、焦點變化——全部在同一個模型內完成,不必跳到外部軟體。
Seedream 5.0 會逐步思考再算圖,長段且結構化的提示詞構圖更穩。
Seedream 5.0 的生成可即時抓取網路資料,適合時事、商品與趨勢題材。
主體替換、局部修改、光線與焦點調整,Seedream 5.0 用一句話就能處理。
丟一張參考圖,Seedream 5.0 就能把色盤、氛圍與質感套用到你的提示詞上。
Seedream 5.0 跨場景維持角色身分的穩定度,比 4.5 世代明顯更可靠。
Seedream 5.0 能在圖中渲染文字、數字、時間與顏色,海報、儀表板與標籤都好用。
Seedream 5.0 讀完提示詞、規劃好構圖後才開始算圖。
過往的圖片模型直接衝向像素,遇到長段結構化提示詞常常崩掉。Seedream 5.0 引入思維鏈視覺推理:模型會先走過主體、版面、光線與限制條件,再決定畫面長相。複雜需求的試錯與重抽次數因此明顯下降。
Seedream 5.0 的提示詞可保持時效——模型會在算圖時上網查資料。
訓練資料總有截止日期。Seedream 5.0 Lite 新增可選的即時搜尋,讓一次生成能反映本週的新品、今日頭條或當下趨勢,而不是去年的訓練語料。可依提示詞逐次切換開關。
主體替換、局部修改、光線、焦點,Seedream 5.0 都吃口語化指令。
圈出區域、描述要怎麼改——Seedream 5.0 會填補該區域、同時保留畫面其餘部分。換主體、重打光、轉移焦點都行。不必另外跑一輪外部編輯,模型在同一條流水線內處理生成與編輯。
丟一張圖,Seedream 5.0 就讀出色盤、氛圍與質感。
丟一張單一風格參考圖——電影定格、一幅畫作或品牌情緒板皆可。Seedream 5.0 會把整體質感套用到你的主體上,不會直接複製構圖。雜誌專題、品牌活動、系列素材的美術方向統一非常合用。
Seedream 5.0 跨場景維持身分,並能正確渲染文字、數字與時間。
先生成一個角色,再把他丟到不同場景——Seedream 5.0 能把臉孔與服裝特徵維持得相當一致。同一次算圖也能處理圖內可讀文字:招牌、標籤、儀表板、時間顯示。老一代圖片模型的兩大痛點,在同一個模型內被解掉。
八張作品——每段說明都是可直接複用的 Seedream 5.0 提示詞








規格皆引用各廠商官方頁面——不採第三方數據。
| 能力 | Seedream 5.0 | Nano Banana Pro | GPT Image 2 | Imagen 4 |
|---|---|---|---|---|
| 最高解析度 | 官方未明確標示 | 最高 4K(1K/2K/4K 原生) | 最高 3840×2160 | 最高 2K(2048×2048,Ultra) |
| 參考圖數量 | 風格遷移單張參考圖 | 最多 14 張 | 僅遮罩編輯 | 官方未明確標示 |
| 即時網路檢索 | 即時搜尋(來源未公開) | Google 搜尋 | 未提及 | 未提及 |
| 原生圖片編輯 | 主體替換、光線、焦點 | 區域編輯 | 遮罩內補、外擴 | 未提及 |
| 圖內文字渲染 | 文字、數字、時間、顏色 | 多語言含中日韓 | 拉丁字+中日韓 | 已改善(細節未說明) |
| 釋出日期 | 2026-02-13(字節跳動 Seed) | 2025(Google DeepMind) | 2026-04-21(OpenAI) | 2026-02-17(Google DeepMind) |
把堪用作品和重抽噪音分開的四個習慣
在同一段 Seedream 5.0 提示詞裡寫清主體、場景、風格、光線與比例。思維鏈推理會回報你的精確描述。
遇到時事、商品或趨勢題材,就在 Seedream 5.0 提示詞上開啟即時搜尋;要可重現的算圖則保持關閉。
丟一張單一風格參考圖讓 Seedream 5.0 讀色盤、氛圍與質感。模型不會複製構圖,只取整體調性。
如果九成已對,請 Seedream 5.0 改剩下的一成——換主體、重打光、轉移焦點,比整張重抽划算。
用戶在第一次跑 Seedream 5.0 之前真正會問的問題
免費、免信用卡。具備即時搜尋與原生編輯的推理式圖片模型。在 ZorqAI 上方免費試用 Seedream 5.0。