
(中央社華盛頓9日綜合外電報導)根據路透社所見的一份備忘錄,美國官員先前悄悄檢視多個中國人工智慧(AI)計畫,評估中方AI工具在根據中共政黨路線來生成輸出內容的能力。
路透社報導,備忘錄顯示,美國國務院與商務部官員聯手行動,提供AI程式一套標準化的中英文問題清單,並根據AI輸出內容進行評分。
這些先前未經披露的評估,是美中兩國在大型語言模型(LLM)部署方面競爭的又一例證。LLM是專門處理語言的AI模型,隨著AI融入日常生活,這些模型帶有的任何意識形態偏見,都可能廣泛傳播開來。
一名國務院官員表示,這些評估結果最終可能會對外公布,藉此警告各方中國在部署意識形態偏頗的AI工具。
國務院與商務部尚未立即回應置評要求。
北京從不掩飾當局在控制中國AI模型輸出內容,藉以恪守國家「社會主義核心價值觀」。從執行面來說,這意味要防止AI模型無意中批評政府,或過度涉入諸如1989年天安門事件或鎮壓維吾爾少數民族等敏感議題。
根據路透社看到的備忘錄,美國官員最近測試了阿裏巴巴的Qwen 3和DeepSeek的R1等模型,並根據它們是否正面回應問題,以及回應內容與北京官方說法的契合程度來進行評分。
備忘錄指出,測試結果顯示,比起美國AI工具,中國AI模型更可能給予與北京立場一致的答覆,例如在南海爭議島嶼問題上支持中國的主張。
備忘錄中提到,DeepSeek的模型在被問及天安門事件等敏感話題時,經常使用千篇一律的措辭,讚揚北京對「穩定與社會和諧」的承諾。
備忘錄還指出,在每次迭代中,中國各AI模型都會有更多審查跡象,這暗示著中國AI開發人員日益聚焦於確保產品與北京立場一致。
DeepSeek與阿裏巴巴也未立即回應置評要求。
AI模型開發人員動手改變聊天機器人意識形態取向的能力,已成全球關注議題,並不僅限於中國的AI模型。
例如,當經常支持極右理念的億萬富豪馬斯克(Elon Musk)宣布對其xAI聊天機器人Grok進行調整後,這個模型開始以陰謀論和歧視性語言支持納粹頭子希特勒(Hitler)並攻擊猶太人。

馬斯克的社群媒體平台X昨天貼出聲明說,Grok正在「積極移除不當內容」。
X執行長雅克裏諾(Linda Yaccarino)今天發布聲明說,自己經歷「精彩2年」帶領公司度過重大轉型後決定請辭,但未說明辭職原因。(譯者:劉文瑜/核稿:蔡佳敏)1140710
標題:路透:美暗查中國AI工具 揭意識形態偏頗風險
聲明: 本文版權屬原作者。轉載內容僅供資訊傳遞,不涉及任何投資建議。如有侵權,請立即告知,我們將儘速處理。感謝您的理解。