18+

三張貼紙把特斯拉騙入逆向車道 資安研究員揪自動駕駛盲點

圖擷自Keen Lab Experimental Security Research of Tesla Autopilot
圖擷自Keen Lab Experimental Security Research of Tesla Autopilot

騰訊旗下資安公司Keen Security Lab的資安研究員上週發表了一份報告,在車道中貼了 3 張貼紙,引導自動駕駛 的Tesla Model S誤判,駛進對向車道。

報告一開始,研究員嘗試讓與左側車道分隔線模糊難以辨識,企圖擾亂特斯拉的方向,不過特斯拉這方面表現極佳,絲毫不受干擾,測試結果顯示要藉抹糊路上標線攻擊特斯拉的實行難度非常高。

不過既然對模糊標線也能準確判斷,研究員換個角度切入,測試「假車道攻擊」(fake lane attack)。研究員在地上貼了三張貼紙,依序延伸到左側,結果特斯拉自動駕駛果真上鉤,將應為對向的車道當作另一條路的右側車道,直接開進去。

雖然測試中並沒有設定另一輛對向車開過來,但現實中也有可能會碰到沒對向車的情形,逆向開在車道中仍然相當危險。

至於達成難易度方面,報告中並無詳述貼紙大小,但從現場畫面看起來應該是「可見而不大」的記號貼紙。研究員也在結論中判斷駭客可以輕易重現類似攻擊手段,並補充建議應加強判斷條件,讓自動駕駛車輛至少能理解並避免駛入對向車道。

由於自動駕駛與安全息息相關,儘管目前研究皆指出自動駕駛事故率遠低於人類駕駛,但人們對於自動駕駛仍然不信任,在路透社的調查中可以看到,半數美國成年人認為自駕車比人類駕駛更危險,加上從過去紀錄可以發現,電腦視覺判定與人類不同,常在出人意料之處誤判,不得不慎。

特斯拉針對旗下的Mdel 3更祭出豐厚的漏洞獎勵計畫,希望重賞號召資安好手、白帽駭客駭入車中,來揪出任何遺漏的漏洞。

《原文刊登於合作媒體INSIDE,聯合新聞網獲授權轉載。》

本日熱門 本周最熱 本月最熱