Eigene Security-Strategie entwickeln

12 min lesen

TITEL

SECURITY

Die Arbeit an Ihrer Sicherheit ist nie abgeschlossen. Ihr Schutz muss immer wieder hinterfragt und anpasst werden. Doch es gibt für jeden eine passende Schutz-Strategie

 

Schritt 1: Geräte absichern

Ein Baustein in Ihrer Sicherheitsstrategie sind die Endgeräte selbst. Die müssen Sie schützen, etwa mit Updates der Hersteller und speziellen Einstellungen wie Datenverschlüsselung

Schritt 2: Identität schützen

Neben den Geräten gibt es aber auch übergreifende Daten, die zu Ihrer digitalen Identität zählen. Eine wichtige Schutzmaßnahme ist vor allem eine Passwortstrategie, die auf allen Geräten funktioniert

Schritt 3: Extra-Schutz nutzen

Aus verschiedenen Gründen kann es vorkommen, dass vorhandene Sicherheitsfunktionen nicht eingeschaltet sind. Das sollten Sie nachholen. Für viele Systeme können Sie sich auch zusätzlichen Schutz holen

Schritt 4: Mehr als Technik

FOTOW: HERSTELLER

Vertrauen Sie der Technik nicht blind: Auch Sicherheitsfunktionen können fehlerhaft sein oder Bedrohungen übersehen. Und es gibt Angriffe, etwa den Enkeltrick, gegen den keine Sicherheitstechnik gewappnet ist. Ihre Strategie sollte also auch Achtsamkeit über technische Dienste hinaus beinhalten – etwa gesundes Misstrauen

Malware-KI

WormGPT wird wie ChatGPT per Textanweisung gefüttert, erstellt aber anders als das bekannte Vorbild Malware für seine Nutzer

Und was eignet sich zur Erzeugung betrügerischer Inhalte besser als generative KI?

Texte in betrügerischen Mails, die man bisher wegen Rechtschreib- und Grammatikfehlern spätestens auf den zweiten Blick enttarnen konnte, werden von ChatGPT fehlerfrei erstellt. Und Bilder lassen sich über Generatoren durch einfache Beschreibungstexte erzeugen. Experten gehen davon aus, dass sich die Qualität von Phishingmails durch den Einsatz von KI wesentlich verbessern wird.

Nach Ansicht des BSI ermöglicht KI neue Bedrohungen durch bestimmte Trainingsdaten sowie durch den Einsatz der KI in der Softwareentwicklung. Beispiel Social Engineering: KI-Sprachmodelle können auf menschliche Reaktionen täuschend ähnliche Antworten generieren – zunächst in Textform, aber dann auch in Form von Sprache, Bildern oder Videos. Hier besteht die Gefahr, dass dies in einem automatisierten Social Engineering münden könnte. Denn als erfolgreich erkannte Textangriffe würden sich beschleunigt weiterverbreiten, weil sie ohne menschliche Interaktion gestreut werden könnten. Mit WormGPT und FraudGPT sind schnell auch zwei KI-Entwicklungen aufgetaucht, die keine Grenzen kennen und speziell auf Cyberangriffe trainiert sind. Weiteres Beispiel: KI-Sprachmodelle können auch zur Fehlersuche im Programmcode eingesetzt werden. Das mag einerseits praktisch für Software-Entwickle

Dieser Artikel ist erschienen in...

Ähnliche Artikel

Ähnliche Artikel