用 Copilot 切勿認真 微軟過時 T&C 條款成笑柄

Author:

Published:

- 廣告 -

微軟(Microsoft)近年傾盡全力將旗下 AI 助理 Copilot 推銷給全球企業及個人用戶,並以「提升生產力」為主要賣點。然而,近日有媒體發現微軟在使用條款中「自打嘴巴」,明文指出 Copilot 只是「供娛樂用途」,呼籲用戶切勿依賴它來獲取重要建議,引發社交網絡熱議。微軟隨後急忙解畫,澄清該條款屬「遺留用語(Legacy Language)」,承諾將於下次更新中修改相關字眼。

Microsoft 針對 Copilot 向用戶發出的使用條款,最後更新是 2025 年 10 月 24 日,當時 AI 應用的準確度跟今日標準絕對不可同日而語。

免責條款惹議 坦承 AI 會犯錯

根據 TechCrunch 及 Tom’s Hardware 報道,惹起爭議的《Microsoft Copilot 個人使用條款》最後更新日期為 2025 年 10 月 24 日。 當中明確警告用戶:「Copilot 僅供娛樂用途。它可能會犯錯,且可能無法按預期運作。請勿依賴 Copilot 獲取重要建議。使用 Copilot 需自行承擔風險。」 這段免責聲明與微軟致力說服企業客戶付費訂閱 Copilot 的積極態度形成強烈對比,讓不少用戶質疑微軟對自家 AI 產品的信心。

當中重要警告一欄,指 Copilot 只供娛樂用途,與微軟一向將其包裝至商業和 Office 365 訂戶使用的方針明顯不符。

官方承諾修改 業界普遍設「免死金牌」

面對外界的質疑,微軟發言人向媒體解釋,隨著產品不斷演進,該段舊有條款已無法反映 Copilot 現今的實際使用情況,並承諾會在下一次條款更新時作出修改。不過,報道亦指出,設立這類極端的免責條款在生成式 AI 領域其實相當普遍。 除了微軟,例如 OpenAI 及 Elon Musk 旗下的 xAI 等巨頭,均在其服務條款中警告用戶不應將 AI 的輸出視為「唯一事實」或「真理」。 此舉主要是為了防範用戶產生過度依賴機器的「自動化偏見」,並為 AI 產生「幻覺」或提供錯誤資訊時提供法律上的「免死金牌」。

- 廣告 -
Buy Me a CPM: PCM 讀者會員資助計劃
Lawrence
Lawrence
《PCM》創刊編輯, 見證電腦由 Monochrome 到 3D,9.6Kbps 撥號到 5G 無線上網年代,DIY、攝影、影音、手機樣樣啱玩。
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -