ChatGPT: Konsequenzen für die IT-Sicherheit | Folge 19
Shownotes
KI-Sprachmodelle wie ChatGPT haben einen großen Einfluss auf unser Leben: Sie helfen bei der Recherche, können komplexe Sachverhalte einfach erklären und Ideen für Geschichten liefern. Allerdings können auch Cyberkriminelle auf diese revolutionäre Technologie zugreifen und sie für ihre Zwecke missbrauchen. In unserer heutigen Folge sprechen wir über Gefahren und Möglichkeiten von ChatGPT. Unser neuer Moderator Philipp Plum spricht hierzu mit Prof. Norbert Pohlmann von der Westfälischen Hochschule in Gelsenkirchen.
Über den Gast Professor Norbert Pohlmann ist Professor für Cybersicherheit und Leiters des Instituts für Internetsicherheit an der Westfälischen Hochschule. Er ist zudem Vorstandsvorsitzender beim Bundesverband IT-Sicherheit sowie im Vorstand des Internetverbands Eco.
WeTalkSecurity befindet sich heute in Aachen in Nordrhein-Westfalen bei Norbert Pohlmann zuhause. Schon im Vorhinein hat er zum Thema ChatGPT und seinen Einfluss auf die IT-Sicherheit referiert, die Präsentation zum Vortrag ist hier verfügbar: https://norbert-pohlmann.com/vortraege/chatgpt-konsequenzen-fuer-die-cyber-sicherheit/
Der Nutzen von ChatGPT für Hacker liegt vor allem darin, ihre Angriffe zu verfeinern: Waren Spam-Mails vor kurzer Zeit noch durch schlechte Grammatik und Rechtschreibung zu erkennen, fällt es zunehmend schwerer, echte und Phishing-Nachrichten zu unterscheiden. Hier hilft Hackern vor allem die KI: Innerhalb von Sekunden können Sprachmodelle wie ChatGPT korrekte Texte formulieren - und das in allen gängigen Sprachen. Da viele Angreifer aus dem Ausland kommen, erleichtert ihnen ChatGPT ihnen hier die Arbeit.
Können Hacker die KI bitten, eine fertige Malware zu programmieren? Die Antwort hierauf lautet "Nein". In Norberts Augen können nur diejenigen Cyberkriminellen von sämtlichen Möglichkeiten von ChatGPT profitieren, die selber gut programmieren können. Eine fertige Malware kann die KI nicht ausgeben, sie kann allerdings Code-Schnipsel erstellen und so den Arbeitsaufwand für Hacker minimieren - vorausgesetzt, diese können was mit dem Code anfangen und gegebenenfalls Fehler finden und korrigieren.
Welche anderen Möglichkeiten gibt es für Hacker, die KI für ihre Zwecke zu missbrauchen? Neben Sprachmodellen wie ChatGPT sind es vor allem KIs, die Bilder und sogar Videos erstellen. Was ein harmloser Spaß sein kann, kann auch schnell zu einem Sicherheitsrisiko werden: Von Personen des öffentlichen Lebens wie dem Bundeskanzler existiert eine Fülle an Material, auf das eine KI zugreifen kann. Die gefälschten Videos und Audioaufnahmen, die auf dieser Basis erstellt werden, sind nur schwer von Echten zu unterscheiden. Diese Fakes sind insbesondere deshalb gefährlich, weil sie für Desinformationskampagnen (Stichwort: Fake News) benutzt werden können und auch bei Spear-Phishing zum Einsatz kommen können: Es kann sein, dass der Finanzchef eines Unternehmens in Zukunft einen Anruf von seinem Chef erhält, der einen auffordert, Geld zu überweisen, Geschäftsgeheimnisse preiszugeben usw.
Und wie kann man dem entgegensteuern? Wird es in Zukunft eine Art Kennzeichnungspflicht für KI-generierte Inhalte geben? Fürs erste wird es laut Norbert schwierig bleiben, KI-generierte und echte Inhalte im direkten Vergleich zu unterscheiden. Es existiert aber eine andere Möglichkeit: Indem reale Inhalte signiert werden, lassen sie sich einfach von unsignierten und unter Umständen falschen Texten, Bildern Videos usw. unterscheiden. Das könnte in der Zukunft bedeuten, dass Politiker nur noch digital signierte Informationen an die Öffentlichkeit geben. Verlage können dann diese Informationen aufgreifen und weiter verbreiten, immer mit der Sicherheit, dass die Informationen, die ihnen vorliegen, richtig sind. Damit dieser Weg funktioniert, bedarf es allerdings einer Infrastruktur, die diese Verifizierung übernehmen kann. Das darf laut Norbert allerdings nicht bedeuten, dass nur eine Unternehmen diese Signaturen ausstellt. Es gilt, auf deutscher und europäischer Ebene eine geeignete Infrastruktur dafür zu schaffen, die einfach und von jedermann zu nutzen ist.
Wie kann denn die IT-Sicherheit von KI profitieren? Das Identifizieren von Angriffen in IT-Netzwerken, auf Geräten, in der Cloud usw. wird mit der KI einfacher: Sie hilft Norbert zufolge dabei, Angriffe schneller zu erkennen und somit Schäden zu minimieren. Ein anderer Aspekt ist, dass KI den Cybersicherheitsexperten selber helfen kann: Wir haben einen großen Fachkräftemangel in der IT und viele Stellen sind nicht besetzt. Die KI hilft hier, indem sie in z. B. bei der Priorisierung von Sicherheitsvorfällen hilft. Was vorher ein Experte erledigen sollte, macht nun die KI: Sie schaut sich alle Sicherheitsereignisse an und gibt dem Experten dann die drei für die Unternehmenssicherheit wichtigsten Ereignisse aus. Hierauf kann sich der Experte dann konzentrieren und das Unternehmen somit effizient schützen. Gleichzeitig nimmt sie dem Experten einen großen Teil seiner Arbeit ab und lässt ihn seine Expertise an anderer Stelle einsetzen. Auch bei der Reaktion auf Angriffe kann die KI helfen, indem sie automatisiert E-Mail- und Firewall-Regeln ändert und die Angriffsfläche des Unternehmens so reduziert.
Welche Bedrohungen kommen 2024 auf uns zu in puncto IT-Sicherheit? Norbert geht davon aus, dass vor allem Ransomware-Angriffe in Zukunft die größten Schäden für die Wirtschaft verursachen werden. Zudem werden Cyberkriminelle ihre Attacken stärker automatisieren, auch mit Hilfe der KI. Waren es in der Vergangenheit vor allem größere Unternehmen, die von Cyberattacken getroffen wurden, werden in Zukunft auch kleinere Betriebe ins Fadenkreuz von Hackern geraten - die Automatisierung von Angriffen ermöglicht es ihnen schließlich, eine hohe Anzahl von Organisationen anzugreifen. In diesem Kontext werden auch DDoS-Attacken eine ernstzunehmende Bedrohung darstellen - je mehr wir uns digitalisieren, desto stärker sind wir auf die Verfügbarkeit von Diensten angewiesen. Um uns davor zu wappnen und diese Art von Angriffen abzuwehren, müssen wir die entsprechenden redundanten Infrastrukturen schaffen unterhalten.
Zudem besteht eine weitere Gefahr: Software wird immer Schwachstellen haben und mit fortschreitender Digitalisierung nimmt auch die Verbreitung von Software und damit Schwachstellen zu. Angreifer können nun das Schwachstellen mit Hilfe einer KI scannen und ihre Angriffe dementsprechend anpassen. Benutzt nun ein großer Konzern eine solche Software mit bekannter Schwachstelle, dauert es unter Umständen einige Zeit, bis der entsprechende Patch in der gesamten IT-Infrastruktur ausgerollt ist. Hacker können somit die öffentlich bekannten Exploits und die Trägheit großer Unternehmen ausnutzen.
Neuer Kommentar