Rolf Schulz ♥ BigData-Insider

Rolf Schulz

Founder and Senior Director Security
GNSEC Singapore Pte Ltd

Mit mehr als 25 Jahren Erfahrung in der Cybersicherheit ist Rolf Schulz eine anerkannte Führungspersönlichkeit und Innovator im Bereich der KI-Sicherheit. Sein Fokus liegt auf dem Schutz kritischer Infrastrukturen, fortschrittlichem Risikomanagement und der Entwicklung ganzheitlicher Cybersicherheitsstrategien.

Als Gründer und Senior Director von GNSEC Pte Ltd und der GNSEC Academy hat er die erste virtuelle Schulungsplattform für KI- und Cybersicherheitsbildung ins Leben gerufen. Diese Plattform vermittelt Fachkräften weltweit aktuelles Wissen und praxisnahe Fähigkeiten.

Er hat wegweisende Cybersicherheitsinitiativen für Operational-Technology-(OT)- und IoT-Umgebungen geleitet und KI-Sicherheitsrahmen nahtlos in Unternehmensarchitekturen integriert, um aufkommende Risiken zu minimieren.

Zuvor war er CEO der Global Network Security GmbH und hat Regierungen sowie multinationale Unternehmen umfassend zu sicherer Softwareentwicklung, dem Schutz kritischer Infrastrukturen und Risikobewertungen für hochkarätige Kunden beraten.

Er hat mehrere Schlüsselpositionen als Berater innegehabt, darunter: Mitglied des Board of Advisors bei Terbium Labs und Cyberguard Corp und Mitglied des Lenkungsausschusses des deutschen CERT-Verbands, wo er zur Entwicklung von Branchenstandards und Innovationen in der Cybersicherheit beiträgt.

Zudem hat er GNS CERT gegründet, eine wegweisende CERT-Organisation für Incident Response im Bereich industrieller Steuerungssysteme (ICS), die als Mitglied von FIRST und TERENA anerkannt wurde.

Als vertrauenswürdiger Berater für internationale Regierungen und Unternehmen ist er ein gefragter Redner und Vordenker für KI-Sicherheit, Cyberabwehrstrategien und die Prävention digitaler Industriespionage.

Artikel des Autors

RAG 2.0 vereint integrierte Orchestrierung, Evals, Guardrails und Governance mit klaren KPIs – für auditierbare, betriebsstabile Plattformen. (Bild: KI-generiert)
Optimierung von Retrieval-Augmented Generation

RAG 2.0 – effiziente Architektur für Suche und Antworten

Viele Initiativen im Bereich Retrieval-Augmented Generation (RAG) verharren im Stadium der „Wow-Demo“: Sie liefern beeindruckende Antworten, doch fehlt es an klar definierten Qualitätsmetriken, belastbaren Sicherheitsgarantien und einer tragfähigen Kostenstruktur für den Betrieb. RAG 2.0 versteht Retrieval nicht mehr als reine Datenbankabfrage, sondern als orchestrierten, messbaren und revisionssicheren Prozess.

Weiterlesen
Trotz beeindruckender Versprechen offenbaren LLMs in der Praxis ernüchternde Grenzen und bleiben weit hinter dem Hype zurück. (Bild: KI-generiert)
KI macht dich nicht zum Superhelden

Ein kritischer Blick auf den LLM-Hype

Kaum eine Woche vergeht ohne neue Schlagzeilen, die den nächsten Durchbruch in der Künstlichen Intelligenz (KI) verkünden. Große Sprachmodelle (Large Language Models, LLMs) wie GPT, Claude oder Gemini stehen dabei im Zentrum der Aufmerksamkeit. Sie sollen Jobs revolutionieren, Kreativität neu definieren und – selbstverständlich – Reichtum versprechen. Wer den PR-Texten Glauben schenkt, steht kurz vor dem Upgrade zum „Super-Angestellten“.

Weiterlesen
Künstliche Intelligenz ist energieintensiv. Doch mit einigen Maßnahmen lässt sich der Stromverbrauch senken. (Bild: KI-generiert)
Weniger Emissionen und Kosten

„Green AI“ – so lässt sich der Energieverbrauch von KI messen und senken

„Green AI“ bedeutet nicht Verzicht, sondern Verantwortung: Effizienz wird zur Produkteigenschaft, die sich messen, verbessern und institutionalisieren lässt. Wer Künstliche Intelligenz (KI) ernsthaft skaliert, muss nicht nur Antworten liefern, sondern auch begründen können, zu welchem Energiepreis. Dieser Artikel zeigt, wie sich Effizienz entlang des gesamten KI-Lebenszyklus verankern lässt – strategisch, operativ und regulatorisch belastbar.

Weiterlesen
Seit dem Inkrafttreten der EU-KI-Verordnung dient das Framework for AI Cybersecurity Practices (FAICP) als technisch-organisatorische Hauptreferenz, mit der Entwickler, Betreiber und Marktaufsichtsbehörden ihre gesetzliche Sorgfaltspflicht belegen. (Bild: KI-generiert)
Von freiwilliger Orientierung zur regulatorischen Pflicht

ENISAs FAICP im Spannungsfeld der EU-KI-Verordnung

Mit dem Inkrafttreten der EU-KI-Verordnung am 1. August 2024 avanciert ENISAs Framework for AI Cybersecurity Practices (FAICP) vom freiwilligen Leitfaden zum faktischen Pflichtstandard. Dieser Beitrag erläutert den Aufbau des Frameworks, zeigt die Schnittstellen zur Verordnung und skizziert, wie Unternehmen und Behörden das Zusammenspiel operativ nutzen können, um KI-Systeme rechtssicher und zugleich resilient zu betreiben.

Weiterlesen
Modernes KI-Awareness-Training: Interaktive Schulungen fördern das Verständnis für KI-Technologien und ihre Anwendung im Unternehmenskontext. (Bild: Dall-E / KI-generiert)
KI-Awareness-Training, Teil 1

Mit KI-Awareness-Trainings Unternehmen erfolgreich auf die Zukunft vorbereiten

Künstliche Intelligenz (KI) gilt als unverzichtbar, doch oft fehlt es in Unternehmen an den notwendigen Kompetenzen. KI-Awareness-Trainings bieten eine strukturierte Lösung, um Mitarbeiter und Management gezielt auf die Chancen und Herausforderungen von KI vorzubereiten. Dieser Zweiteiler zeigt, wie gezielte Trainings und ein modularer Ansatz Unternehmen helfen, KI nachhaltig und sicher zu integrieren.

Weiterlesen
0122051511v1 (Bild: Dall-E / KI-generiert)
Unterschätzte Gefahren für KI-Systeme

Wie Data Poisoning die Sicherheit Künstlicher Intelligenz bedroht

KI-Sicherheit ist ein komplexes Thema, das häufig unterschätzt wird. Während manche glauben, dass herkömmliche Cybersicherheitsmaßnahmen ausreichen, zeigt sich bei näherer Betrachtung, dass spezifischere Bedrohungen wie Data Poisoning erhebliche Risiken bergen. Der folgende Artikel beleuchtet, wie Data Poisoning KI-Modelle manipulieren kann und welche Maßnahmen erforderlich sind, um diesen Bedrohungen wirksam zu begegnen.

Weiterlesen
Unterschätzte Gefahren für KI-Systeme

Wie Data Poisoning die Sicherheit Künstlicher Intelligenz bedroht

KI-Sicherheit ist ein komplexes Thema, das häufig unterschätzt wird. Während manche glauben, dass herkömmliche Cybersicherheitsmaßnahmen ausreichen, zeigt sich bei näherer Betrachtung, dass spezifischere Bedrohungen wie Data Poisoning erhebliche Risiken bergen. Der folgende Artikel beleuchtet, wie Data Poisoning KI-Modelle manipulieren kann und welche Maßnahmen erforderlich sind, um diesen Bedrohungen wirksam zu begegnen.

Weiterlesen
KI macht dich nicht zum Superhelden

Ein kritischer Blick auf den LLM-Hype

Kaum eine Woche vergeht ohne neue Schlagzeilen, die den nächsten Durchbruch in der Künstlichen Intelligenz (KI) verkünden. Große Sprachmodelle (Large Language Models, LLMs) wie GPT, Claude oder Gemini stehen dabei im Zentrum der Aufmerksamkeit. Sie sollen Jobs revolutionieren, Kreativität neu definieren und – selbstverständlich – Reichtum versprechen. Wer den PR-Texten Glauben schenkt, steht kurz vor dem Upgrade zum „Super-Angestellten“.

Weiterlesen
Von freiwilliger Orientierung zur regulatorischen Pflicht

ENISAs FAICP im Spannungsfeld der EU-KI-Verordnung

Mit dem Inkrafttreten der EU-KI-Verordnung am 1. August 2024 avanciert ENISAs Framework for AI Cybersecurity Practices (FAICP) vom freiwilligen Leitfaden zum faktischen Pflichtstandard. Dieser Beitrag erläutert den Aufbau des Frameworks, zeigt die Schnittstellen zur Verordnung und skizziert, wie Unternehmen und Behörden das Zusammenspiel operativ nutzen können, um KI-Systeme rechtssicher und zugleich resilient zu betreiben.

Weiterlesen
Weniger Emissionen und Kosten

„Green AI“ – so lässt sich der Energieverbrauch von KI messen und senken

„Green AI“ bedeutet nicht Verzicht, sondern Verantwortung: Effizienz wird zur Produkteigenschaft, die sich messen, verbessern und institutionalisieren lässt. Wer Künstliche Intelligenz (KI) ernsthaft skaliert, muss nicht nur Antworten liefern, sondern auch begründen können, zu welchem Energiepreis. Dieser Artikel zeigt, wie sich Effizienz entlang des gesamten KI-Lebenszyklus verankern lässt – strategisch, operativ und regulatorisch belastbar.

Weiterlesen
KI-Awareness-Training, Teil 1

Mit KI-Awareness-Trainings Unternehmen erfolgreich auf die Zukunft vorbereiten

Künstliche Intelligenz (KI) gilt als unverzichtbar, doch oft fehlt es in Unternehmen an den notwendigen Kompetenzen. KI-Awareness-Trainings bieten eine strukturierte Lösung, um Mitarbeiter und Management gezielt auf die Chancen und Herausforderungen von KI vorzubereiten. Dieser Zweiteiler zeigt, wie gezielte Trainings und ein modularer Ansatz Unternehmen helfen, KI nachhaltig und sicher zu integrieren.

Weiterlesen
Optimierung von Retrieval-Augmented Generation

RAG 2.0 – effiziente Architektur für Suche und Antworten

Viele Initiativen im Bereich Retrieval-Augmented Generation (RAG) verharren im Stadium der „Wow-Demo“: Sie liefern beeindruckende Antworten, doch fehlt es an klar definierten Qualitätsmetriken, belastbaren Sicherheitsgarantien und einer tragfähigen Kostenstruktur für den Betrieb. RAG 2.0 versteht Retrieval nicht mehr als reine Datenbankabfrage, sondern als orchestrierten, messbaren und revisionssicheren Prozess.

Weiterlesen