Google: Große Sprachmodelle werden für reale Angriffe eingesetzt, KI kann Sicherheitsmechanismen mit Zwei-Faktor-Authentifizierung umgehen

MarketWhisper

大型語言模型攻擊

Laut CoinEdition berichtet am 12. Mai, hat das Google Threat Intelligence Team in einem Bericht gewarnt, dass Angreifer in realen Cyberangriffen, die globale Systeme beeinträchtigen, große Sprachmodelle einsetzen. Zudem bestätigte Google, dass Hacker eine auf Python basierende Zero-Day-Sicherheitslücke entwickelt haben, um Sicherheitsmechanismen zur doppelten Authentifizierung (2FA) zu umgehen. Google sagt, die betreffenden Aktivitäten stünden im Zusammenhang mit staatlich unterstützten Cyberangriffen sowie dem Missbrauch von KI-Tools in unterirdischen Hacker-Netzwerken.

Konkrete Anwendungen von KI-Tools in Cyberangriffen

Laut dem Bericht des Google Threat Intelligence Team helfen KI-Tools Angreifern, ihre Fähigkeiten in nahezu jeder Phase eines Cyberangriffs zu verbessern. Dazu gehören: schnelleres Erkennen von Software-Schwachstellen, die Automatisierung bestimmter Teile von Angriffsabläufen sowie die Verbesserung von Angriffsmethoden wie Phishing (Internetanzeigenbetrug) und die Erstellung von Schadsoftware.

Der Bericht dokumentiert einen konkreten Fall: Hacker nutzten eine auf Python basierende Zero-Day-Sicherheitslücke, um die doppelte Authentifizierung (2FA) erfolgreich zu umgehen. Google erklärt, dass für den Angriff weiterhin gültige Login-Zugangsdaten erforderlich seien. Dies zeige, dass die Schwachstelle aus der Systemarchitektur selbst resultiere und nicht aus einem technischen Softwarefehler.

Der Bericht weist außerdem darauf hin, dass Angreifer ihre Angriffsmethoden mithilfe einer Sicherheitsdatenbank trainieren, die tausende bekannte Schwachstellen und Ausnutzungsbeispiele enthält, um Muster zu erkennen, die dabei helfen, neue Schwachstellen aufzudecken. Die Hacker nutzen gleichzeitig KI, um falschen Quellcode zu erstellen, Nutzdaten (Payload) zu manipulieren und dynamische Skripte zu schreiben, um der Erkennung auszuweichen. In manchen Fällen kann ein KI-System die Anweisung unmittelbar an infizierte Geräte senden.

Organisationen mit Bezug zu China und Nordkorea: Der Bericht bestätigt, dass KI-Angriffsmethoden zuerst übernommen werden

Laut dem Bericht des Google Threat Intelligence Team liegen Organisationen mit Bezug zu China und Nordkorea bei der Übernahme der oben genannten KI-unterstützten Angriffsmethoden vorn. Zu den konkreten Vorgehensweisen gehören das sorgfältige Design von Eingabeaufforderungen (Prompt-Nachrichten), um Sicherheitsinformationen aus dem System zu stehlen, sowie das Auftreten als Experte für Cybersicherheit, um potenzielle Schwachstellen in Firmware und eingebetteten Geräten zu scannen.

Google setzt KI-Defensivsysteme ein, um auf Bedrohungen zu reagieren

Laut CoinEdition gibt Google an, die KI-gestützten Abwehrmaßnahmen zu verstärken. Das Big Sleep-System wird zur automatischen Identifizierung von Schwachstellen eingesetzt; das CodeMender-System zur automatischen Behebung von Schwachstellen; und Gemini enthält integrierte Sicherheitsmaßnahmen, um verdächtige Aktivitäten in Benutzerkonten zu blockieren.

Häufige Fragen

Warum wurde im Bericht des Google Threat Intelligence Team ein Fall dokumentiert, in dem KI die doppelte Authentifizierung (2FA) umging?

Laut CoinEdition-Bericht vom 12. Mai 2026 bestätigt der Bericht des Google Threat Intelligence Team, dass Hacker eine auf Python basierende Zero-Day-Sicherheitslücke nutzten, um die 2FA-Sicherheitsmechanismen erfolgreich zu umgehen. Google erklärt, dass die Sicherheitslücke aus dem Systemdesign selbst stamme; der Angriff könne erst ausgeführt werden, wenn gültige Login-Zugangsdaten vorliegen.

Welche staatlich bzw. landbezogen relevanten Organisationen wurden von Google als Erstnutzer von KI-Angriffsmethoden genannt?

Laut dem Bericht des Google Threat Intelligence Team setzen Organisationen mit Bezug zu China und Nordkorea als Erstes KI-Tools ein, um Cyberangriffe durchzuführen. Zu den Vorgehensweisen gehören das sorgfältige Design von Eingabeaufforderungen, um Sicherheitsinformationen zu stehlen, sowie das Auftreten als Experte für Cybersicherheit, um Firmware-Schwachstellen zu scannen.

Welche namentlich genannten KI-Defensivsysteme hat Google eingesetzt, um auf die betreffenden Bedrohungen zu reagieren?

Laut CoinEdition hat Google bereits Big Sleep (automatische Identifizierung von Schwachstellen), CodeMender (automatische Behebung von Schwachstellen) sowie die in Gemini integrierten Sicherheitsmaßnahmen (Blockierung verdächtiger Aktivitäten in Konten) als KI-Defensivsysteme eingesetzt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare