Generative KI: Freund und Feind der Cybersicherheit

Blog

HeimHeim / Blog / Generative KI: Freund und Feind der Cybersicherheit

Aug 20, 2023

Generative KI: Freund und Feind der Cybersicherheit

Diebstahl persönlicher Daten über ein Laptop-Konzept für Computerhacker, Netzwerk

Diebstahl persönlicher Daten über ein Laptop-Konzept für Computer-Hacker, Netzwerksicherheit und elektronische ... [+] Banksicherheit

Es ist klar, dass künstliche Intelligenz über eine bloße Kuriosität der Zukunft hinausgegangen ist, da generative KI-Tools wie der ChatGPT-Chatbot von OpenAI, der Bildgenerator DALL-E2 und die virtuellen Begleiter CarynAI und Replika von allen übernommen werden, von einsamen Menschen, die virtuelle Liebesbeziehungen pflegen an Menschen, die anspruchsvolle Fotos für ihr Social-Media-Profilbild erstellen. Im geschäftlichen Bereich stellen sich CEOs die Auswirkungen generativer KI auf ihre Unternehmen in so unterschiedlichen Bereichen wie Datenanalyse, Kundenservice, Reiseplanung, Marketing und Code-Schreiben vor.

In der Welt der Cybersicherheit sorgt KI für ebenso großes Aufsehen. Die RSA-Konferenz ist die größte Cybersicherheitskonferenz der Welt. Die Veranstaltung fand im April in San Francisco statt und beinhaltete Perspektiven von Regierungsbeamten der US-amerikanischen Cybersecurity and Infrastructure Security Agency (CISA), der National Security Agency (NSA) und der National Aeronautics and Space Administration (NASA) zu den Risiken und Vorteilen der KI. und andere. Auf derselben Konferenz kündigte Google seine neue KI-gestützte Google Cloud Security AI Workbench an, die sich die Fortschritte bei großen Sprachmodellen (LLMs) zunutze macht. Ebenfalls auf der RSA kündigte SentinelOne seine KI-gestützte Plattform zur Erkennung von Cybersicherheitsbedrohungen mit unternehmensweiter autonomer Reaktion an, die diese Fortschritte nutzt, während Veracode Veracode Fix ankündigte, das generative KI nutzt, um Korrekturen für Sicherheitslücken im Code zu empfehlen.

SentinelOne-Mitbegründer und CEO Tomer Weingarten

Tomer Weingarten ist Mitbegründer und CEO von SentinelOne, einem führenden Cybersicherheitsunternehmen, zu dessen Kunden Hitachi, Samsung und Politico zählen. Er erklärt, dass generative KI dabei helfen kann, die derzeit größten Probleme der Cybersicherheit zu bewältigen: Komplexität, da die meisten Menschen sich der Methoden und Tools nicht bewusst sind, die zum Schutz und zur Abwehr von Cyberangriffen erforderlich sind; und der Talentmangel, der durch die hohe Eintrittsbarriere aufgrund der für die Arbeit in diesem Bereich erforderlichen sehr hohen Kompetenzen entsteht.

„KI ist äußerst skalierbar, um all diese Probleme anzugehen, und wir haben gezeigt, dass wir in der Lage sind, von der Notwendigkeit, komplexe Abfragesprachen, komplexe Operationen und Reverse Engineering zu verwenden, Abstand zu nehmen, sodass jetzt sogar ein Einsteiger-Analyst eine generative KI nutzen kann.“ „Ein Algorithmus, der automatisch hinter den Kulissen laufen kann, um ins Englische oder andere Sprachen zu übersetzen, Erkenntnisse zu liefern und eine automatisierte Aktion zur Behebung der auftretenden Probleme anzuwenden“, sagte Weingarten. „Es verändert völlig die Art und Weise, wie Sie Cybersicherheit betreiben, indem es die Komplexität wegnimmt und es jedem Analysten ermöglicht, ein Superanalyst zu sein. Es ist fast so, als ob Sie ihm Superkräfte geben würden, um das zu tun, was er normalerweise ein paar Tage brauchen würde, um es jetzt in Sekundenschnelle zu erledigen.“ . Es ist ein wahrer Kraftmultiplikator.“

Das andere große Problem in der Cybersicherheit, das generative KI angeht, ist laut Weingarten die Tatsache, dass die Cybersicherheitsbranche mit diskreten, isolierten Produkten aufgebaut wurde, die jeweils für die Bewältigung eines bestimmten Aspekts der Cyberverteidigung entwickelt wurden. „Die wahre Revolution der KI in der Cybersicherheit ergibt sich aus der Zusammenfassung all dieser Daten in einem zentralen Repository“, sagte er. „Und wenn Sie dann Ihre KI-Algorithmen auf diesen Datensee anwenden, können Sie komplexe Korrelationen zwischen all den verschiedenen Elementen erkennen, die heute in die Cybersicherheitsverteidigung einfließen. Bei diesen datenintensiven Problemen können Sie mit KI unglaublich kompetent darin werden, ein Problem zu finden Nadel im Heuhaufen."

Brian Roche, Chief Product Officer des Anwendungssicherheitsunternehmens Veracode

Brian Roche, Chief Product Officer des Anwendungssicherheitsunternehmens Veracode, erklärt die bösartige Seite der KI in der Cybersicherheit. „Hacker nutzen KI, um Angriffe zu automatisieren, Erkennungssysteme zu umgehen und sogar Malware zu erstellen, die in Echtzeit mutieren kann“, sagte Roche. „Darüber hinaus gibt es in den Dark-Web-Foren bereits zahlreiche Diskussionen darüber, wie man generative KI-Plattformen wie ChatGPT nutzen kann, um Spearphishing- und Social-Engineering-Angriffe auszuführen.“

Roche behauptet, dass KI-Lösungen mit einem Deep-Learning-Modell in der Verarbeitung natürlicher Sprache einen präventiven Ansatz zur Cybersicherheit verfolgen könnten, indem sie vorgeschlagene Korrekturen für Sicherheitslücken weitergeben, während Entwickler Code schreiben. „Dies würde die Notwendigkeit für Entwickler verringern, diese Fehler irgendwo im Softwareentwicklungslebenszyklus ihrer Anwendung manuell zu beheben, was Zeit und Ressourcen spart. Bei der Schulung anhand eines kuratierten Datensatzes würde diese Art von KI-gestützter Lösung Entwickler nicht ersetzen, sondern lediglich ermöglichen.“ „Sie können sich auf die Erstellung von sichererem Code konzentrieren und die mühsame, aber äußerst wichtige Aufgabe des Scannens und Behebens von Fehlern der Automatisierung überlassen“, sagte Roche.

Dennoch warnt Roche: „Unternehmen müssen vorsichtig sein, bevor sie sich auf eine KI-Lösung festlegen, da ein schlecht trainiertes KI-Modell genauso viel Schaden anrichten kann wie gar keins. KI-Modelle sind nur so gut wie die Daten, die ihnen zugrunde liegen – je besser sie sind.“ Je genauer die Daten sind, desto genauer sind die Ergebnisse.“

Generative KI kann dazu führen, dass sich bösartiger Code verändert und so eine größere Bedrohung darstellt, da er der Erkennung und herkömmlichen Cybersicherheitsmaßnahmen entgeht. Um effektiv zu bleiben, müssen Cybersicherheitsmaßnahmen innovativ sein und Cyberkriminellen einen Schritt voraus sein.

Hierzu weist Weingarten darauf hin, dass seine Theorie über den Nutzen, den generative KI für die Cybersicherheit bringt, indem sie Komplexität beseitigt und den Talentmangel bekämpft, in beide Richtungen geht. Generative KI kann Regierungsgegnern helfen, skalierbarer und fortschrittlicher zu werden, und sie kann auch die Eintrittsbarriere für Hacker beseitigen. „KI kann Einsteigerangreifern und -gegnern dabei helfen, Fähigkeiten zu erlangen, die bisher nur regierungsnahen Angreifern vorbehalten waren. Generative KI wird die Angriffslandschaft aufpolieren“, sagte Weingarten. Er fügt hinzu, dass generative KI auch verwendet werden kann, um ein gefälschtes Video eines nationalen Führers zu erstellen, der Informationen bereitstellt, die das schändliche Ziel eines Gegners unterstützen, was zu Skepsis hinsichtlich der Unfähigkeit führt, zu wissen, was echt ist, was gefälscht ist und wem man vertrauen kann.

Der Begriff „Open Source“ bezieht sich auf Code, der öffentlich zugänglich ist und dessen Besitzer jedem die Möglichkeit einräumt, ihn anzuzeigen, zu verwenden, zu ändern, zu teilen oder zu verteilen. Man kann argumentieren, dass Open Source eine schnellere Entwicklung durch Zusammenarbeit und Austausch fördert. Wie Business Insider-Autor Hasan Chowdhury berichtet, sagte Luke Sernau, leitender Software-Ingenieur bei Google, „Open-Source-Ingenieure machten Dinge mit 100 US-Dollar, mit denen wir bei 10 Millionen US-Dollar zu kämpfen haben, und zwar in Wochen, nicht in Monaten“, heißt es in einem Artikel Kürzlich veröffentlichte Google ein Memo, dass die Open-Source-Fraktion Google, OpenAI und andere große Technologieunternehmen „überholt“, wenn es um generative KI geht.

Weingarten ist der Meinung, dass sowohl Open-Source- als auch proprietärer Code einen Platz haben. „Aber letztendlich sind Open Source und die damit verbundene Transparenz, insbesondere bei einer so grundlegenden Technologie, eine zwingende Zutat“, sagte er. „Besonders für technologieaffinere Unternehmen werden wir Open-Source-Algorithmen nutzen, weil sie für uns vorhersehbarer sind, wir verstehen, wie sie funktionieren, und wir sie auf das trainieren können, was wir brauchen.“

Reuben Maher, COO des Cybersicherheits- und Analyseunternehmens Skybrid Solutions

Reuben Maher, Chief Operating Officer des Cybersicherheits- und Analyseunternehmens Skybrid Solutions, ist pragmatisch in Bezug auf einen ganzheitlichen Cyber-Ansatz, der sowohl generative KI als auch Open Source umfasst. „Die Konvergenz von Open-Source-Code und robusten generativen KI-Funktionen birgt ein großes Potenzial im Bereich der Cybersicherheit von Unternehmen, um Unternehmen mit starken – und zunehmend intelligenten – Abwehrmaßnahmen gegen sich entwickelnde Bedrohungen auszustatten“, sagte Maher. „Einerseits wird die Fähigkeit generativer KI, Bedrohungen vorherzusagen, Aufgaben zu automatisieren und Bedrohungsinformationen zu verbessern, durch die Transparenz und Community-Unterstützung durch Open-Source-Frameworks verbessert. Sie ermöglicht eine viel schnellere unternehmensweite Erkennung und Reaktion auf Schwachstellen.“

„Andererseits“, fährt Maher fort, „ist es ein gutes Gleichgewicht. Starke generative KI-Modelle können falsch-positive und falsch-negative Ergebnisse haben, was den Entscheidungsprozess undurchsichtig macht. Open-Source-Code kann trotz seiner Transparenz und Kosteneffizienz verschwinden.“ Das System ist Angreifern ausgesetzt, die entdeckte Schwachstellen ausnutzen könnten, bis der Community-Support aufholt.“ Maher kommt zu dem Schluss: „Diese Faktoren erfordern einen sorgfältigen Ansatz und letztendlich könnte der strategische Einsatz dieser Technologien ein Dreh- und Angelpunkt für die Sicherung Ihres Unternehmens in unserer zunehmend vernetzten digitalen Welt sein.“

Was ist also die Antwort? Generative KI wird uns erhalten bleiben und birgt sowohl Risiken als auch Vorteile für die Cybersicherheit.

Maher weist darauf hin, dass eine intelligente Reaktion auf der Seite der Cyber-Bedrohungsjagd, die zumindest proportional zu der der böswilligen Akteure ist, immer notwendiger wird, um Schritt zu halten. „Die Integration von LLMs wird immer häufiger vorkommen, da Open-Source-Anbieter schnell viel ausgefeiltere Modelle entwickeln, die die Fähigkeiten globaler Giganten wie Google, Microsoft und OpenAI übertreffen“, sagte Maher. „Führende Anbieter von generativen KI-Cyberlösungen müssen die Automatisierung für mehr Transaktionsaufgaben erhöhen und gleichzeitig falsch positive und negative Ergebnisse begrenzen – und das alles unter Wahrung des Vertrauens ihrer Benutzer aufgrund der zunehmenden Bedenken hinsichtlich des Datenschutzes bei großen Mengen sensibler oder persönlicher Informationen.“

Weingarten weist darauf hin, dass die generative KI in einer Zeit großer geopolitischer Spannungen ihr weit verbreitetes Debüt feierte. „Das Hinzufügen einer aufgeladenen Zutat wie KI zu einem kochenden Topf mit instabilem Eintopf könnte wirklich noch mehr Chaos anrichten, daher sind Richtlinien für den verantwortungsvollen Einsatz generativer KI erforderlich. Die staatliche Regulierung ist wahrscheinlich der wichtigste Faktor bei all dem, und obwohl es welche gegeben hat.“ Während wir in Europa keine Versuche unternommen haben, haben wir dies in den USA nicht ernsthaft getan.

Maher kommt zu dem Schluss: „Obwohl ich die ‚Pause für Ethik‘ verstehe, die einige globale KI-Führungskräfte von führenden Technologienationen für die Entwicklung generativer KI-Fähigkeiten forderten, bin ich mit dieser Strategie nicht einverstanden, da die Kriminellen nicht an unsere Ethik gebunden sind. Wir können es einfach.“ Wir dürfen nicht zulassen, dass Kriminelle, die LLMs verwenden, die Innovation in diesem Bereich anführen, was dazu führt, dass alle anderen aufholen. Die schlechten Akteure werden nicht innehalten, während wir die Dinge herausfinden – warum sollten wir also? Es steht zu viel auf dem Spiel!“

Das Gespräch wurde aus Gründen der Klarheit bearbeitet und gekürzt. Schauen Sie sich hier meine anderen Kolumnen an.