2011/12 | Fachbeitrag | IT-Sicherheit

Gefahr erkannt – Gefahr gebannt? Sicherheitslücken rechtzeitig erkennen & schließen

von Frank Irnich

Inhaltsübersicht:


Die zunehmende Geschwindigkeit und Anzahl elektronischer Transaktionen, das massive Volumen zu untersuchender Daten, technische Einschränkungen sowie ein schier unendlicher betrügerischer Einfallsreichtum stellen Unternehmen vor immer größere Herausforderungen. Herkömmliche Ansätze zur Betrugserkennung stoßen inzwischen an ihre Grenzen.

Blick in die Zukunft notwendig

Die meisten Risiken werden erst entdeckt, nachdem ein Betrugsfall aufgetreten ist, beispielsweise wenn Kunden Banken, Telefongesellschaften, Versicherungen, Einzelhändler oder andere Unternehmen auf unbefugte Buchungen, Kartennutzung oder unberechtigte Forderungen aufmerksam machen. Die dann folgende Betrugsermittlung setzt zu einem Zeitpunkt ein, an dem es in der Regel zu spät ist, Verluste auszugleichen.
Zusätzlich sind viele speziell zur Betrugserkennung entwickelte Lösungen bei der Identifizierung betrügerischer Aktivitäten erfolglos, da sie bisweilen nicht mit den massiven Datenströmen innerhalb der Systeme Schritt halten können. Weiterhin sind vorhandene Lösungsansätze oft nicht in der Lage, die sich stets weiterentwickelnden Pläne, Muster und andere Indikatoren für Betrugsrisiken in Echtzeit zu erkennen, um sie anschließend zu analysieren und so fehlerhafte Transaktionen rechtzeitig zu verhindern.
Zudem verkompliziert der Druck seitens Regulierungsbehörden und Kunden eine effektive Betrugserkennung. Versicherer beispielsweise können sich nicht die Zeit nehmen, jede Schadensmeldung akribisch auf ihre Legitimität hin zu untersuchen. Sie müssen sich vielmehr auf ihre Versicherungsagenten und Schadensregulierer verlassen – oder im besten Fall auf ein IT-System, das Muster, Beziehungen und Abweichungen von historischem Verhalten sowie andere Spezifika erkennt und eine Warnung ausgibt, die Ermittler zu einer genaueren Prüfung veranlasst.
Zudem verkompliziert der Druck seitens Regulierungsbehörden und Kunden eine effektive Betrugserkennung. Versicherer beispielsweise können sich nicht die Zeit nehmen, jede Schadensmeldung akribisch auf ihre Legitimität hin zu untersuchen. Sie müssen sich vielmehr auf ihre Versicherungsagenten und Schadensregulierer verlassen – oder im besten Fall auf ein IT-System, das Muster, Beziehungen und Abweichungen von historischem Verhalten sowie andere Spezifika erkennt und eine Warnung ausgibt, die Ermittler zu einer genaueren Prüfung veranlasst.
Welche Möglichkeiten haben Unternehmen nun, den Spagat zu meistern zwischen der Abwehr raffinierter und hartnäckiger Krimineller und der Abwicklung von Geschäftsprozessen in einem Tempo, das sowohl Kundenerwartungen als auch Regulierungsanforderungen gerecht wird?

Fortschrittliche Analyse-Technologien für effektive Betrugserkennung

Glücklicherweise helfen neue Technologien und Verfahren im Bereich Advanced Analytics dabei, diese Probleme in den Griff zu bekommen. So können wertvolle Kunden vor inakzeptablen Risiken, Verzögerungen und Pannen geschützt und Branchenstandards sowie Regulierungsvorgaben optimal umgesetzt werden. Dabei sollte man bei effektiven Systemen zur Betrugserkennung zwei Ziele vor Augen habe

  1. potenzielle Betrugsversuche so früh wie möglich identifizieren und
  2. negative Auswirkungen minimieren.

Ein Betrugserkennungssystem ist dann am effektivsten, wenn es in der Lage ist, akkurat und kosteneffektiv

  • potenzielle Betrugsversuche zu Beginn eines Geschäftsprozesses oder einer Transaktion zu erkennen.
  • nicht nur Stichproben, sondern alle Datenbestände – gleich ob aktuell oder historisch, strukturiert oder unstrukturiert – zu analysieren, um tiefere Einblicke in Betrugsverhalten zu gewinnen und andere Indikatoren zu identifizieren.
  • über einen einfachen Musterabgleich hinaus weiterführende statistische Modelle und algorithmische Methoden anzuwenden.

Die Auswirkungen von Betrug können nur durch eine spezielle Herangehensweise an das Informationsmanagement reduziert werden, die Geschwindigkeit und fortschrittliche Analysen sowie intelligente Mustererkennung und -wiederkennung kombiniert. Ein effektives Betrugserkennungssystem muss daher Mustersuchläufe im Terabyte-Plus-Bereich in (nahezu) Echtzeit durchführen können. Es sollte in der Lage sein, anhand von Betrugserkennungsmodellen komplexe Beziehungsgefüge in extrem großen Datenmengen nicht nur schnell, sondern auch akkurat zu identifizieren. Weiterhin muss es eine große Anzahl von Dokumententypen und Datenquellen auswerten. Dies wird durch eine Kombination aus Textanalysen und auf komplexen Rechenvorgängen basierenden Auswertungen erreicht, wodurch sich kritische Betrugsindikatoren aufspüren lassen. Bei alldem ist es zudem erforderlich, die Zahl von falsch-positiven und falsch-negativen Resultaten eingeschränkt werden.
Die Auswirkungen von Betrug können nur durch eine spezielle Herangehensweise an das Informationsmanagement reduziert werden, die Geschwindigkeit und fortschrittliche Analysen sowie intelligente Mustererkennung und -wiederkennung kombiniert. Ein effektives Betrugserkennungssystem muss daher Mustersuchläufe im Terabyte-Plus-Bereich in (nahezu) Echtzeit durchführen können. Es sollte in der Lage sein, anhand von Betrugserkennungsmodellen komplexe Beziehungsgefüge in extrem großen Datenmengen nicht nur schnell, sondern auch akkurat zu identifizieren. Weiterhin muss es eine große Anzahl von Dokumententypen und Datenquellen auswerten. Dies wird durch eine Kombination aus Textanalysen und auf komplexen Rechenvorgängen basierenden Auswertungen erreicht, wodurch sich kritische Betrugsindikatoren aufspüren lassen. Bei alldem ist es zudem erforderlich, die Zahl von falsch-positiven und falsch-negativen Resultaten eingeschränkt werden.

  • Durchführung komplexer Abfragen über immense Datenmengen zur Erhöhung der Genauigkeit statistischer und explorativer Analyse-Modelle,
  • Durchforstung eines breiten Spektrums an Dokumententypen nach kritischen Betrugsindikatoren,
  • Hochgeschwindigkeitsabfrage-Verarbeitung zur Betrugsaufdeckung in einem frühen Stadium der Schadensbearbeitung sowie
  • Datenkompression zur kosteneffektiven Analyse der vorhandenen Gesamtdaten anstelle der Verwendung exemplarischer oder voraggregierter Daten.

 

In der Realität bewährt

Betrug ist ein bekanntes Problem in der Versicherungsbranche, das sowohl für Versicherungsnehmer als auch für -anbieter über alle Bereiche der Branche hinweg hohe Kosten verursacht. Auswirkungen von Versicherungsbetrug manifestieren sich nicht nur in Form höherer Versicherungsprämien, sondern auch in steigenden Preisen von Konsumgütern, denn auch Unternehmen müssen höhere Prämien zahlen und geben diese Kosten an ihre Kunden weiter. Bei Versicherern selbst fallen weit über 90 Prozent der Ausgaben bei der Schadensregulierung an. Während das Potenzial zur Kosteneinsparung durch Prozessoptimierung weitgehend ausgeschöpft ist, sind hier noch umfassende Verbesserungen möglich. Jeder vermiedene Versicherungsbetrug ist eine spürbare Entlastung für den Versicherer und mittelfristig auch für deren Kunden, wenn vermieden werden kann, dass steigende Tarife den Betrug subventionieren müssen.
Betrugsversuche können in vielen Stadien eines Versicherungsprozesses ansetzen, beispielsweise schon bei der Schadensmeldung. Oftmals werden Informationen auf Schadensmeldungen falsch dargestellt: Experten, die Versicherungsnehmer beraten, blasen tatsächliche Forderungen auf oder inszenieren Unfälle, deren Folge angeblich schwere Verletzungen waren, obwohl nur leichte Blessuren vorliegen. Manipulierte oder falsche Leistungsberechnungen werden zu einem immer gravierenderen Problem. Daher sind z.B. die Anforderungen an die Analyse von Massendaten bei gesetzlichen und privaten Krankenversicherungen besonders hoch.
Um solchen Betrugsszenarien erfolgreich zu begegnen, setzen Versicherungsunternehmen zunehmend fortschrittliche Technologien ein. Mit Hilfe entsprechender Werkzeuge zur Analyse von Unternehmensdaten können sie die Transaktionen und Aktivitäten, die im Vorfeld auf mögliche betrügerische Aktivitäten hindeuten, wesentlich genauer identifizieren. Datenanalysen bieten außerdem eine effektive Methode, Betrugsdelikten präventiv zu begegnen, indem bisher unbekannte Indikatoren oder Betrugsmuster in Daten aufgezeigt werden.
Derartige Analysen erfordern jedoch das Können geschulter Experten, die darauf spezialisiert sind, mittels Data-Mining- und anderer Analysewerkzeuge komplexe statistische bzw. mathematische Modelle zu entwickeln und diese auf die operativen Daten der Versicherung anzuwenden. Die Anforderungen an die Analyseumgebung sind dabei immens, denn eine Betrugsaufdeckung erfordert nahezu immer die Analyse einzelner Geschäftsvorgänge. Die Datenhaltung muss auf einem leistungsstarken Analyse-Server erfolgen, um diese Modelle in Echtzeit auf riesige Datensätze mit großen Dimensionen anwenden zu können.
Versicherungsunternehmen benötigen Analyse-Techniken, mit deren Hilfe sie komplexe Zusammenhänge erkennen, schwierige Fragen stellen und schnellstmöglich Antworten bekommen können. Darüber hinaus müssen sie in der Lage sein, riesige Datenmengen miteinander zu verknüpfen und bislang ungelöste Fragen zu beantworten.

Praxisbeispiel: Advanced-Analytics in der Versicherungs- & Telekommunikationsbranche

Nehmen wir das Beispiel einer großen Krankenversicherung, die täglich zirka 300.000 Anträge bearbeitet. Diese wirken auf den ersten Blick alle rechtmäßig, solange sie nicht auf spezielle Betrugsindikatoren hin überprüft wurden. Aber durch Analysen kann gezeigt werden, dass beispielsweise eine falsche Stundenzahl angegeben oder verdächtige Anträge von ein- und demselben Versicherungsvermittler eingereicht wurden. Im vorliegenden Fall hat die Versicherung eine Analyse-Infrastruktur für den geschäftskritischen Einsatz eingeführt, um diesen Betrugsdelikten vorzubeugen. Die Lösung ermöglicht es, verschiedene Datenquellen auf einem einzelnen Analyse-Server in ein gemeinsames Format zu konvertieren. So lassen sich alle Antragsdaten durch die Anwendung statistischer Modelle schnell sichten und verdächtige Aktivitäten aufdecken. Durch dieses innovative Betrugserkennungssystem konnte die Versicherung ihre Fähigkeiten zur frühzeitigen Identifikation von Betrugsfällen signifikant verbessern.
Die Telekommunikationsbranche ist ebenfalls ein beliebtes Ziel von Betrügern. Einer Schätzung zufolge beliefen sich allein im Jahr 2009 die Kosten für Betrugsfälle in diesem Bereich auf 36 bis 41 Milliarden Euro. Bei den verschiedenen Formen von Telekommunikationsbetrug – Subskriptions- und Intrusionsbetrug, Click-Stream-Betrug und Identitätsdiebstahl – handelt es sich durchweg um Taktiken zur unrechtmäßigen Nutzung von Telekommunikationsdiensten, sei es für den Eigengebrauch oder den Weiterverkauf. Täglich müssen Telekommunikationsunternehmen Milliarden von Transaktionen durchführen, sodass auch diese Branche sich Advanced-Analytics-Systemen zugewandt hat, welche die riesigen Datenmengen filtern, analysieren und so verdächtige Nutzungsmuster sowie andere Betrugsindikatoren erfassen können.

Wann ist die Zeit reif für Advanced Analytics?

Es liegt auf der Hand, dass traditionelle Ansätze zur Betrugserkennung – selbst wenn sie mit Technologien der jüngsten Generation kombiniert werden – nicht länger ausreichen, um Betrüger abzuschrecken, zu überführen und strafrechtlich zu verfolgen. Es hat sich bereits erwiesen, dass Advanced-Analytics-Modelle, die immer komplexere Algorithmen einsetzen, sowie geeignete Analyse-Datenbanken finanzielle Verluste durch Betrüger beträchtlich reduzieren können. Das Wichtigste ist jetzt, die eigene Leistungsfähigkeit sowie die Erfolgschancen bei der Betrugserkennung einzuschätzen. Dabei können die folgenden Fragen helfe

  • Ist das Unternehmen in Besitz eines automatisierten Systems, das Indikatoren für potenziellen Betrug erkennen kann?
  • Ist das System schnell genug, um bereits den Beginn eines Geschäftsvorgangs oder einer Transaktion auf potenziellen Betrug hin zu analysieren?
  • Ist es möglich, auf verfügbare Informationen wie historische Daten, Textdokumente oder Bilder zurückzugreifen, um nach Betrugsfällen zu suchen?
  • Werden fortschrittliche statistische Methoden und Algorithmen genutzt, um falsch-positive und falsch-negative Ergebnisse zu minimieren?

Die Beantwortung dieser Fragen kann Unternehmen dabei helfen zu entscheiden, an welcher Stelle und wie in Advanced Analytics investiert werden sollte, um Betrügern das Leben zu erschweren und die Geschäftsergebnisse zu verbessern.

Diese Artikel könnten Sie auch interessieren

7 Praxis-Tipps: So vermeiden Sie Schatten-IT in Ihrer Team-Kommunikation

Lahmgelegte Systeme und kritische Datenlecks: Pro Tag registriert das Bundesamt für Sicherheit (BSI) 320.000 neue Schadprogramme, wie sein im September 2020 veröffentlichter Lagebericht zur IT-Sicherheit in Deutschland offenbart. Die beunruhigenden Zahlen zeigen nicht nur, dass Cyber-Kriminalität eine zunehmende Bedrohung darstellt, sondern auch, wie wichtig es ist, (potenzielle) Sicherheitslücken...

Weiterlesen

ERP: Planzahlen & Finanzströme tagesaktuell im Blick — auch per App

Deutschland ist auf Expansionskurs: Acht von zehn mittelständischen Betrieben generieren einen signifikanten Teil ihres Umsatzes im Ausland. Dies ergibt die aktuelle Studie „Triebwerk des Erfolgs – der deutsche Mittelstand im Fokus". Um im internationalen Markt zu bestehen, müssen Manager ihre Geschäftstätigkeiten, Planzahlen und Finanzströme tagesaktuell kontrollieren. Zudem ist die Konsolidierung...

Weiterlesen

Information ist (Daten-)Gold für jedes Unternehmen

WISSENplus
Auf rund 40 Zettabyte soll das digitale Universum laut einer IDC-Studie (IDC) bis zum Jahr 2020 anwachsen und auch in Unternehmen wächst die Datenmenge unaufhörlich. Betrachtet man dieses Volumen und die aktuellen Trends hin zu einer immer flexibleren Zusammenarbeit in agilen Projektteams, so erkennt man die riesigen Mengen an unstrukturierten und strukturierten Informationen, die abgelegt werden. Im Schn...

Weiterlesen

Gar nicht mehr so wolkig: Datenverluste in der Cloud sind vermeidbar

WISSENplus
Die Vorteile des Cloud Computings liegen auf der Hand: In der Wolke gespeicherte Daten sind praktisch überall und jederzeit abrufbar, lassen sich bequem austauschen und die IT-Kosten sinken. Doch gerade kleine und mittlere Unternehmen (KMU) schöpfen diese Möglichkeit noch nicht voll aus. Während die einen die Angst vor Datenverlusten oder Virenangriffen davon abhält, auf Cloud-Speicherung zu setzen, Ve...

Weiterlesen

Hohe Datenqualität – die Basis für den Unternehmenserfolg

Der Ärger ist groß, wenn durch hohe Rückläuferquoten Mailing-Aktionen versanden oder kostspielig ein zweites Mal durchgeführt werden müssen. Wenn Kunden Werbematerialien mehrfach oder Rechnungen gar nicht erhalten. Wenn es Beschwerden hagelt, weil die Mitarbeiter im Support zu lange brauchen, um die nötigen Daten zu finden, oder Forecast-Analysen des Vertriebs ins Leere gehen, weil potenzielle Intere...

Weiterlesen

IT-Sicherheit ist nicht gleich Informationssicherheit

WISSENplus
Ohne Information kein Geschäftsbetrieb. Information ist somit eine wesentliche Ressource in den Unternehmen, braucht Aufmerksamkeit – und Schutz. Aber wie lassen sich relevante von irrelevanten Informationen unterscheiden? Worauf sollen wir uns konzentrieren im Dauerfeuer von Informationen und unter dem Druck, schnell fundierte Entscheidungen zu treffen?...

Weiterlesen

Transparenz und Wissensdatenbank: Der Marktplatz IT-Sicherheit

WISSENplus
Stellen Sie sich folgende Situation vor: Ein Firmenchef legt ein Bündel Bargeld und Akten mit sensiblen Betriebsinterna über Nacht vor dem Unternehmenstor ab und macht Feierabend. Absurd und völlig undenkbar, nicht? Was ist aber, wenn ein Unternehmen vertrauliche Informationen in unverschlüsselten E-Mails versendet, ungesicherte Netzwerke nutzt und auf den Schutz von Firewall und Antivirenprogramm verz...

Weiterlesen

Big Data – das „Öl des 21. Jahrhunderts“

Wenn Big Data das „Öl des 21. Jahrhunderts“ ist, wie Analysten gerne titulieren, so entspricht die Datenaufbereitung dem Raffinerieprozess und das Business Process Management (BPM) dem Versorgungssystem, adäquat einer Tankstelleninfrastruktur. BPM liefert den raffinierten Treibstoff für die Geschäftsprozesse. Aber die Big-Data-Industrie steckt derzeit noch in den Kinderschuhen, ähnlich wie die Öli...

Weiterlesen