不要看我 - ForkLog:加密貨幣、人工智慧、奇點、未來

不要看我

在大都市中,普通的監控攝像頭早已被配備人工智慧的整套系統取代。令人遺憾或幸運的是,我們中的許多人不得不接受一個曾經只在反烏托邦小說中讀到的事實。

關於大城市街道上的監控系統是如何運作的,以及為何各國政府匆忙推廣這些系統,克希斯托夫·什皮克(Krzysztof Szpik)已經做出了分析。

Flock警察

2025年9月,丹佛的克里桑娜·埃爾澤(Krisanna Elzer)家門口站著一名警察,手持傳票。她被指控偷取鄰近城市的一個包裹。

證據來自商業公司Flock Safety的自動化監控系統數據,顯示埃爾澤的車輛出現在畫面中。然而,警察拒絕與嫌疑人分享這些細節,並建議她將所有異議提交法院。

「你知道我們在那個城市有攝像頭。哪怕一口新鮮空氣都不會從那裡飄過,除非我們知道,」警察解釋說。

相信自己無辜的埃爾澤開始收集證據。案發當天,她確實在附近——拜訪裁縫,但並未偷取任何包裹。

她從手機和汽車應用中的GPS追蹤器、行車記錄器、口頭證詞,甚至當天穿著的衣服照片中收集資料。

經過多次徒勞的嘗試未能將信息傳達給當局後,嫌疑人直接寫信給警察局長。對方稱讚她的努力,並通知她傳票已被取消。

截至2025年12月,Flock Safety已提供對美國49個州的80,000個攝像頭的存取。

從移動監控車到犯罪預測

街道、商店和機構的監控攝像頭早已司空見慣。然而,現代智能攝像頭和數據處理方法與前輩相比,已經有了天壤之別。

模擬時代的閉路電視(CCTV)

曾幾何時,所謂的閉路電視(CCTV,Closed-circuit television)系統指的是一個封閉的攝像頭網絡,信號傳送到幾個監視器前,供無聊的商場保安觀看。

技術層面僅限於視頻感應器、顯示屏和錄像設備。

自上世紀中葉起,執法機構就開始實驗監控系統。

1960年,英國警方在特拉法加廣場進行了兩台監控攝像頭的測試,當時正值泰國國王和王后訪問。監視器被安置在一輛貨車內。這次經驗揭示了幾個技術問題,也引發了不同反應。

1979年,英國政府的研究機構Police Scientific Development Branch開發了基於當時可用的光學字符識別(OCR)技術的ANPR(自動號牌識別)系統。

到1990年代,十字路口和建築外牆的攝像頭已成為常態。執法部門將CCTV和ANPR納入日常工具箱。

智能攝像頭

隨著計算機元件的微型化、普及的“連接性”增強,以及人工智慧的出現,傳統的CCTV逐漸被具有集中數據庫和自動分析系統的智能攝像頭取代。

這類設備配備有自己的處理器和操作系統、存儲空間、本地和網絡接口,有時還配備麥克風用於音頻錄製。

配備ANPR功能的Flock Safety攝像頭。來源:Wikimedia一些廠商在設備上集成AI加速器和NPU(神經處理單元)模塊,用於實時數據處理。另一些則使用外部設備進行AI分析。

這些系統能識別物體、辨認車牌和人臉,並保存所見內容的摘要。功能範圍取決於軟件配置和設備供應商的偏好。

背後的超級大腦

智能攝像頭本身可以辨識物體並記錄其識別碼——車牌號、臉孔或步態特徵。分析中心會收集這些數據,與其他來源的信息融合,並向操作員提供結論。

Flock Safety提供類似的系統,名為Nova——“公共安全數據平台”,不僅存取監控錄像,還包括洩露信息、數據經紀商資料庫和其他商業來源。

這樣的系統會建立一份行動軌跡、偏好、瀏覽歷史、習慣、警方記錄及其他數據的檔案。

配備如此龐大資料庫的AI能推測人們的行為,並向操作員預警可疑情況。這一功能已經向Flock的客戶開放。

據公司聲稱,Nova能讓執法部門“一鍵結案”。

批評者則認為,這是繞過獲取搜查令的程序,並為大規模侵犯隱私提供了土壤。

彩色髮型與代碼注射

許多人對大規模監控漠不關心。對他們來說,這只是一個幫助破案和預防犯罪的工具。然而,也並非所有人都對個人自由的界限無動於衷。

智能攝像頭與希望保持私隱的群體之間的對抗,正從多個層面展開。

除了國家層面的法律抗爭外,愛好者還會運用偽裝藝術和更傳統的破解手段。

伪装(Spoofing)

對這些設備最具趣味的攻擊方式之一是“伪装”或“演示攻擊”。這類方法涉及操控攝像頭接收的圖像。

包括戴面具、反射器、特殊紋理等手段,用來“破壞”圖像,阻礙系統識別或正確辨認物體。

2016年,設計師Scott Urban的Reflectacles項目推出了一款反射眼鏡,能將紅外光反射回監控攝像頭,讓人臉被“照亮”。

Reflectacles在監控視頻中的示意。來源:Kickstarter。這種暴力破解技術不會留下單一攝像頭的分析數據,但在多角度監控下效果有限。

柏林的研究員兼藝術家Adam Harvey開發了一系列CV Dazzle方案,用於對抗人臉識別系統。

2010年代的典型做法是非對稱髮型和化妝元素,旨在欺騙當時流行的Viola-Jones算法。該算法通過識別眼睛下的陰影、鼻子、對稱性和鼻樑位置來辨認臉孔。

作為解決方案,藝術家採用了不對稱的陰影配置和與膚色對比的色彩。

CV Dazzle Look 5。來源:Adam.harvey.studio。隨著人臉識別AI系統的出現,過去的方法逐漸過時。2020年,Harvey提出了更新版的化妝方案。

CV Dazzle Look 6和7。來源:Adam.harvey.studio。作者強調這些是技術展示,而非具體圖案,最佳方案取決於監控條件。

類似的方法也適用於車牌識別系統。美國愛好者Benn Jordan描述了創建“敵對”紋理以干擾ANPR的技術。

利用開源識別模型,Jordan訓練神經網絡生成視覺噪聲,將其疊加在車牌上,讓模型讀取錯誤的字符或完全無法識別車牌。

視覺干擾方法的問題在於可靠性不足。其效果依賴於條件和攝像頭數量。同時,監控系統供應商也在擴展識別特徵,比如特定的步態、車輛顏色或外觀改造。

研究人員仍在尋找繞過先進模型的方法,但對智能攝像頭系統的更大威脅來自黑客。

攻擊設備與網絡攻擊

與任何連網電腦一樣,不論是否配備AI,智能攝像頭及其伺服器架構都可能成為黑客攻擊的目標。

這些系統在存在期間,已被記錄多種不同嚴重程度的漏洞。

2021年,Hikvision監控攝像頭的代碼中發現了注入攻擊漏洞。安全漏洞允許攻擊者完全控制設備,安裝軟件,甚至訪問網絡中的其他攝像頭。

2023年,Axis公司智能攝像頭的操作系統中發現可在安裝ACAP應用時執行任意命令的漏洞。

2025年,Dahua的監控系統中發現兩個漏洞,涉及遠程命令執行和緩衝區溢出,攻擊者可獲得完全控制權。

另一個攻擊途徑是直接與設備交互,這些設備常設置在戶外公共場所。攻擊者可以利用維護接口,存取本地存儲或篡改設備。

為防範直接攻擊,廠商採用數據加密、硬體驗證和數字簽名來保護視頻文件。

配置妥善的設備不易被“刷機”或下載可用數據,但偶爾也會出錯。

2025年,404 Media報導,至少有60台Flock Safety的Condor AI攝像頭(具有人員追蹤功能)未受到未授權存取的保護。

網絡安全專家John Gaine和前述研究員Benn Jordan利用Shodan搜索引擎找到這些設備的IP地址,發現可以在未輸入帳號密碼的情況下連接。

任何人都可以觀看實時直播、下載過去30天的存檔、修改設置或查看系統日誌。

供應商解釋此事件為“設置錯誤,影響少數設備”,並已修復問題。

同樣的,其他Flock攝像頭型號也存在漏洞,只要按下機身上的某些按鈕,就能開啟未加密的WiFi接入點,從而完全控制設備和軟件。

Gaine發布了包含55個點的Flock系統漏洞分析報告。

公司官方回應稱,這些問題早已知曉,潛在的黑客主要依靠直接訪問攝像頭和“對硬件內部結構的深刻了解”。

供應商強調,所有必要的更新都會在不需要用戶干預的情況下自動推送,系統不存在威脅。

對“部分勝任者”的抗衡

自動監控系統,尤其是配備AI的系統,已成為執法部門的重要工具。

設備供應商向客戶保證其解決方案的能力——這是嫌疑車輛的照片和行動軌跡,是地址。現在,只需一個點擊就能結案。

人們很容易習慣這樣的便利。過度依賴自動化數據是常見的認知偏誤之一。

AI自動化遵循相同原則:許多用戶傾向於相信ChatGPT的回答是正確的,忽略潛在的矛盾。在日常生活中,這可能扭曲用戶的認知,甚至引發精神障礙。

即使在完美的工程設計和經過授權操作員的嚴格控制下,規模龐大的AI監控系統仍可能帶來危害。

2025年,美國當局開始調查Flock Safety技術在非法監控中的可能用途。有人懷疑執法部門利用該系統追蹤移民,監視跨州女性尋求墮胎的行動。

在這種情況下,系統運作正常,沒有被破解、沒有被篡改視頻或使用深偽技術。

不斷改進,而非破壞

CCTV系統已經普及多年。基於AI的監控系統已成為新常態。

即使是最具對抗性的面具或完全遮擋的車牌,也無法在數據全面收集的情況下保障私隱。

像任何強大的工具一樣,AI監控系統也需要規範,以防止濫用,並避免供應商和操作員的疏忽造成安全隱患。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言