Rolle von KI bei Sicherheitsoperationen


Studie: Fast die Hälfte der Unternehmen schließt Teams für Cyber-Sicherheit von Entwicklung, Schulung und Implementierung von KI-Lösungen aus
Automatisierung von Gefahrenerkennung und -reaktion sowie Endgerätesicherheit sind die beliebtesten KI-Anwendungen im Sicherheitsbereich


Nur 35 Prozent der Experten oder Teams für Cyber-Sicherheit sind an der Entwicklung von Richtlinien für den Einsatz von KI-Technologie in ihrem Unternehmen beteiligt. Fast die Hälfte (45 Prozent) gibt an, nicht bei der Entwicklung, Einführung oder Implementierung von KI-Lösungen mitzuwirken. Dies geht aus dem jüngst veröffentlichten Bericht "State of Cybersecurity 2024" von Isaca hervor, globaler Berufsverband zur Förderung des Vertrauens in die Technologie.

Bei der Beantwortung neuer Fragen im Rahmen der jährlich durchgeführten und von Adobe unterstützten Studie wurde das Feedback von mehr als 1.800 Cybersicherheitsexperten zu Themen im Zusammenhang mit Cyber-Sicherheitspersonal und der Bedrohungslandschaft erfasst. Die befragten Sicherheits-Teams gaben an, dass sie KI hauptsächlich für folgende Zwecke einsetzen:
>> Automatisierte Gefahrenerkennung/-reaktion (28 Prozent)
>> Endgerätesicherheit (27 Prozent)
>> Automatisierung routinemäßiger Sicherheitsaufgaben (24 Prozent)
>> Betrugserkennung (13 Prozent)

"Angesichts des Personalmangels im Bereich der Cyber-Sicherheit und der zunehmenden Belastung der Fachkräfte durch eine komplexe Gefahrenlandschaft lohnt es sich, das Potenzial von KI zur Automatisierung und Rationalisierung bestimmter Aufgaben sowie zur Verringerung der Arbeitsbelastung auszuloten", so Jon Brandt, Isaca Director, Professional Practices and Innovation. "Verantwortliche für Cyber-Sicherheit dürfen sich jedoch nicht nur auf die Rolle von KI bei Sicherheitsoperationen konzentrieren. Es ist unerlässlich, dass die Sicherheitsfunktion in die Entwicklung, das Onboarding und die Implementierung jeder KI-Lösung in ihrem Unternehmen einbezogen wird – auch bei bestehenden Produkten, die später mit KI-Funktionen ausgestattet werden."

Die neuesten KI-Entwicklungen erkunden
Zusätzlich zu den Ergebnissen des Berichts "State of Cybersecurity 2024" zum Thema KI hat Isaca Ressourcen zum Thema KI entwickelt, um Fachleute für Cyber-Sicherheit und andere Experten im Bereich Digital Trust beim Umgang mit dieser transformativen Technologie zu unterstützen:

>> White Paper zum KI-Gesetz der EU: Unternehmen müssen den Zeitplan und die Maßnahmen im Zusammenhang mit dem KI-Gesetz der EU kennen, das Anforderungen an bestimmte in der Europäischen Union eingesetzte KI-Systeme festlegt und bestimmte Verwendungen von KI verbietet – die meisten davon ab dem 2. August 2026. Das neue Isaca White Paper Understanding the EU AI Act: Requirements and Next Steps empfiehlt einige wichtige Schritte, darunter die Einführung von Audits und Rückverfolgbarkeit, die Anpassung bestehender Cyber-Sicherheits- und Datenschutzrichtlinien und -programme. Ebenso angeraten wird die Ernennung eines KI-Beauftragten, der für die Überwachung der eingesetzten KI-Tools und des breiteren KI-Ansatzes des Unternehmens verantwortlich ist.

>> Authentifizierung in der Deepfake-Ära: Experten für Cyber-Sicherheit sollten sich sowohl der Vorteile als auch der Risiken von KI-gesteuerter adaptiver Authentifizierung bewusst sein, so das neue Isaca White Paper Examining Authentication in the Deepfake Era. Während KI die Sicherheit erhöhen kann, indem sie in adaptiven Authentifizierungssystemen eingesetzt wird, die sich an das Verhalten jedes Benutzers anpassen und Angreifern den Zugriff erschweren, können KI-Systeme auch durch feindliche Angriffe manipuliert werden. Zudem sind sie anfällig für Verzerrungen in KI-Algorithmen und können ethische und datenschutzrechtliche Bedenken aufwerfen. Andere Entwicklungen, einschließlich der Forschung zur Integration von KI mit Quantencomputern, die sich auf die Authentifizierung im Bereich der Cybersicherheit auswirken könnten, sollten laut dem White Paper beobachtet werden.

>> Überlegungen zur KI-Richtlinie: Organisationen, die eine Richtlinie für generative KI einführen, können sich gemäß den Considerations for Implementing a Generative Artificial Intelligence Policy berlegungen der Isaca eine Reihe wichtiger Fragen stellen, um sicherzustellen, dass sie alle wichtigen Aspekte abdecken. Dazu gehören: "Wer ist vom Geltungsbereich der Richtlinie betroffen?", "Wie verhält man sich richtig und was sind akzeptable Nutzungsbedingungen?" und "Wie stellt Ihre Organisation sicher, dass die rechtlichen und Compliance-Anforderungen erfüllt werden?" (Isaca: ra)

eingetragen: 10.12.24
Newsletterlauf: 13.02.25

Isaca: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Studien

  • Ausbildung von Cybersecurity-Fachkräften

    ISC2, eine gemeinnützige Mitgliedsorganisation für Cybersecurity-Fachleute, hat ihren "2025 Cybersecurity Hiring Trends Report" veröffentlicht. Der Bericht basiert auf den Erkenntnissen von 929 Personalverantwortlichen in Unternehmen aller Größen in Kanada, Deutschland, Indien, Japan, Großbritannien und den USA. Er liefert eine Anleitung zur Neubewertung von Rekrutierungs-, Einstellungs- und Bindungsstrategien, um für Talente auf Einstiegs- und Nachwuchsebene attraktiver zu sein und widerstandsfähigere Cybersicherheitsteams aufzubauen.

  • Trennung zwischen Führung und Mitarbeitern

    Bitdefender hat den Cybersecurity Assessment Report 2025 vorgestellt. Der jährliche Bericht basiert auf einer unabhängigen Umfrage von mehr als 1.200 IT- und Sicherheitsexperten - vom IT-Manager bis zum Chief Information Security Officer (CISO) - die in Unternehmen mit 500 oder mehr Mitarbeitern in geografischen Regionen auf der ganzen Welt arbeiten, darunter Frankreich, Deutschland, Italien, Singapur, das Vereinigte Königreich und die Vereinigten Staaten. Die Analyse behandelt die dringlichsten Anliegen, größten Herausforderungen und Bedrohungswahrnehmungen, die die Unternehmenssicherheit beeinflussen.

  • Cyber-Hygiene über alle Branchen hinweg

    Zscaler hat eine Studie zu Versicherungsansprüchen aus Cybervorfällen veröffentlicht. Untersucht wurde, welche Auswirkungen die Implementierung einer Zero Trust-Architektur auf die Schadensbegrenzung gehabt hätte, wenn ein solcher Sicherheitsansatz bei einer von einem Cybervorfall betroffenen Organisation im Einsatz gewesen wäre. Zur Analyse wurden die proprietären Datensätze von Cyber-Schäden des Marsh McLennan Cyber Risk Intelligence Centers aus den letzten acht Jahren herangezogen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen