mautic pixel
QNAP Edge AI 儲存伺服器
QAI-h1290FX
Local AI.Real NAS.One Platform
  • 支援 NVIDIA RTX™ PRO 6000 Blackwell GPU
  • 本地 LLM 與私有 RAG 搜尋
  • AI Container 應用與一鍵部署模板
  • 高達 70B 級本地 LLM 模型
  • 真正的資料隱私與主控權
當 GenAI / LLM 需求進到企業內部,常見三大卡關點是:
資料不能上雲
(合規 / 機密 / 內規)
雲端費用不可控
(API 成本、用量、模型更新)
AI 工具分散、難維護
(環境、GPU、容器、資料、權限各一套)
QNAP QAI-h1290FX 為你解決以上難題!
讓本地 AI 更快落地、更加簡單
① 集中化平台:模型與資料集,不再分散
把 AI models + Datasets + Log 放在同一個全快閃平台,專為 AI 工作負載與即時資料處理打造。
➁ 落地更安全:本地 LLM + 私有 RAG
讓文件、資料與模型在本地即時理解、分析與推論。不走雲端、不靠外部 API,無資料外洩風險。
➂ IT 友善的「一鍵 AI」:容器化應用與精選模板
Container Station 內建大量 AI 應用模板,一鍵部署即可啟動熱門工具。模板由 QNAP 團隊持續維護更新,降低導入門檻與維運壓力。
➃ 企業級 GPU 算力:支援 NVIDIA RTX™ PRO Blackwell (96GB)
建立容器時,直接在介面下拉選擇 NVIDIA GPU,就能立即啟用加速。
➄ ZFS 可靠度:企業級資料完整與不可變保護
讓 AI 平台同時具備資料保護與復原韌性,降低勒索攻擊、錯誤操作與合規風險。
➅ 全快閃 + 25GbE:讓資料吞吐跟上模型節奏
消除 I/O 瓶頸,讓 GPU 算力真正被用滿;亦可擴充至 100GbE,因應 AI 工作負載持續成長。
現在,讓本地 AI 真的跑起來!
「可問答」的企業助理
透過 AnythingLLM + Ollama 建立內部問答助理,將員工手冊、請假政策等文件納入本地 RAG 知識範圍,員工可用自然語言提問並即時獲得回覆,減輕相關部門負擔,加速回應效率。
開發團隊 AI Co-Pilot
用 Ollama 在本地運行 Qwen / Llama 等模型,協助文件撰寫、程式碼審查、技術翻譯與格式轉換;全程離線、可追溯,更適合企業內部流程。
n8n + NAS 自動化
部署 n8n,把 AI 變成可觸發的流程節點:收到支援信件自動產生摘要與回覆建議、定期檢查設備狀態並給出分析建議、偵測不當內容 — 讓 AI 真的進到日常營運。
創意團隊 AI Studio
用 Stable Diffusion + ComfyUI 建立圖像生成中心;GPU 加速 + NAS 持久儲存,讓工作流與成果可保存、可重現,不再每次都從零開始。
 
AMD EPYC™
7302P,
16-Core/32-Thread,
Up to 3.3 GHz
128 GB RDIMM DDR4 ECC, Up to 1TB (8 x 128 GB)
 
 
2 x 2.5GbE +
2 x 25GbE
4 x
PCIe Gen 4
Slots
 
QAI-h1290FX:本地 AI.真正 NAS.一體化平台
特色 QNAP QAI-h1290FX 它牌 NAS (AI NAS) AI 工作站
核心 AI 運作模式 本地 LLM + 私有 RAG 雲端依賴型 AI 純本地算力節點
AI 算力 支援企業級 NVIDIA RTX PRO 6000 Workstation GPU (96GB VRAM)  無 GPU 或僅 iGPU / NPU 視機型而定,多為單一 GPU 
AI 部署體驗 AI 模板一鍵部署 + GPU 直覺化整合 需自行搭環境,設定繁瑣 需自行搭環境,設定繁瑣
NAS 核心能力  企業級 NAS,具 ZFS 檔案系統、快照、備份功能 NAS 功能不完整或偏消費型  無完整 NAS 管理與資料保護力
成本與管理負擔 一台整合算力+儲存+管理,TCO 最低 AI 與儲存需分開投資  投入與維護成本高
QNAP 專業團隊隨時提供協助,協助您打造 Edge AI 儲存與應用。
問題諮詢
與行銷及公關相關的任何問題
關注 QNAP
不錯過最新資訊
經銷據點
找到離你最近的店家
QNAP Systems, Inc. 威聯通科技股份有限公司 © 2026 版權所有