數位工具平台:先偵測,再選模型
這個網站提供「瀏覽器/硬體能力偵測」與「工具導覽」。打開就能產生一份不含個資的診斷報告, 幫你判斷裝置更適合跑 WebGPU / CPU 推論、以及大約能承擔的模型等級(僅供估算)。
提示:若你的瀏覽器不支援 WebGPU,本頁仍可提供 WebGL 與記憶體等基礎資訊。
工具清單
以「能用、可說明、可回報」為原則整理
能力快檢(本機偵測)
不會上傳你的 GPU/裝置資訊;僅在瀏覽器本機計算
你的環境摘要
正在偵測…
WebGPU
—
WebGL Renderer
—
RAM(估算)
—
CPU Threads
—
Cross-Origin Isolated
—
平台/語系
—
提醒:RAM 與部分硬體資訊屬於瀏覽器提供的「估算值」,不同瀏覽器可能顯示不同。
如何用這份結果挑模型?
你可以把「WebGPU 是否可用」當作能否在瀏覽器裡跑更快的本地推論的重要指標; 而 RAM(或在電腦端的 VRAM)通常決定你能塞得下多大的模型。下面是保守的參考邏輯:
WebGPU ✅ + RAM ≥ 16GB
較適合 7B~13B(量化)等級
WebGPU ❌ 或 RAM < 16GB
建議 1B~7B(量化)或改用雲端 API
需要更準?
到「模型偵測頁」看分級與建議
本站不提供「官方排名」或「最新 Top X」宣稱;只提供本機能力檢測與一般性估算,避免誤導。
使用說明與揭露
內容越透明,審核越順
FAQ
常見問題(精簡版)
為什麼我看到的 RAM 不是精準數字?
部分瀏覽器只提供「deviceMemory」這類粗略值(例如 8/16),用來降低指紋追蹤風險;因此本站只做估算與分級,不做精準承諾。
WebGPU 一定要開嗎?
不是必須,但 WebGPU 通常能讓瀏覽器端推論更有效率。若不支援,仍可使用 CPU/雲端 API;本站會在報告中標示支援狀態。
我可以把這頁的偵測結果拿去提交 bug 嗎?
可以。請使用「複製診斷報告(JSON)」功能,並避免附上你不想公開的個人資訊(本站預設不收集個資)。
這份判斷能保證我一定跑得動某模型嗎?
不能。實際速度與能否載入模型會受到模型格式、量化方式、瀏覽器/驅動版本、背景程式等影響;本站只提供一般性建議與快速排雷。