自從ChatGPT 出現後,各式各樣的AI 工具便如雨後春筍般出現,但其中隱含的隱私及機密外洩問題也備受爭議,近日便傳出Google 自家在研發「Bard 」聊天機器人 時,也警告員工要「謹慎使用」。
根據外媒《路透社》報導,有內部人士指出,Google在其內部訓練自家AI機器人的過程中,竟也告知員工不要「洩漏機密」給聊天機器人,也提醒工程師應該要避免直接使用聊天機器人所協助生產出的代碼。
外界對此認為,Google所指的應該不只包含自家研發的Bard,也包含ChatGPT。而這對於許多科技工師來說其實相當正常,Apple、三星及亞馬遜等大公司都禁止員工透過這些AI來協助工作,以避免商業及公司的機密遭洩露。
隨著世界上越來越多人透過AI聊天機器人來協助工作、解決問題,隱私問題也確實漸漸浮上檯面,大公司與各種商業機密也確實可能有遭到盜取的可能性,需要更加提防警覺。
📌 數位新聞這裡看!
訂閱《科技玩家》YouTube頻道!
💡 追新聞》》在Google News按下追蹤,科技玩家好文不漏接!
📢 影/iPhone 17 Pro Max實機曝光!機身比16 Pro厚 相機模組神巨大
📢Sony WH-1000XM6藍牙耳機開箱!摺疊回歸、降噪驚豔「讓世界變安靜」
📢 任天堂Switch 2台灣7月10日上市開賣!試玩台北體驗會就能買 價格出爐
📢 注意!華碩路由器全球逾9千台遭入侵「重開機沒用」 用戶快做1事自保
📢 YouTube會員台灣便宜雙人方案來了!價格比印度貴近4倍 規則一次看
📢 你是「居然人」或「竟然人」?LINE都市傳說瘋傳 網搜對話狂讚:真的準