• 1000

Das Thema Künstliche Intelligenz (KI) gewinnt immer mehr an Bedeutung – mit der zunehmenden Digitalisierung sämtlicher Lebensbereiche hat KI das Potenzial, unsere Gesellschaft grundlegend zu verändern. Daher ist es unausweichlich, dass wir uns mit den Auswirkungen und Möglichkeiten von KI auseinandersetzen, um eine verantwortungsvolle und nachhaltige Nutzung dieser Technologie zu gewährleisten. Über die Möglichkeiten und Herausforderungen, die KI mit sich bringt, spricht unser Cybersecurityexperte Robert Lamprecht mit Bernhard Knasmüller vom KPMG Lighthouse Team.

Im allgemeinen Sprachgebrauch wird ChatGPT als Synonym für Künstliche Intelligenz verwendet. Aber was steckt eigentlich genau dahinter und wann sprechen wir von künstlicher Intelligenz?

Bernhard Knasmüller: Künstliche Intelligenz hat uns ja bereits die letzten 10-20 Jahre in der einen oder anderen Form begleitet. Anfangs war es vielleicht eher noch ein esoterisches Thema an Universitäten, ist dann aber über Applikationen im Bereich visuelle Erkennung, also Bild- und Spracherkennung, bis hin zu ersten digitalen Assistenten wie Siri in unserer Hosentasche gelandet. Seit dem Durchbruch von Firmen wie OpenAI, den sie mit ChatGPT geschafft haben, ist der Begriff Künstliche Intelligenz oft mit dem Thema Large language models (LLM) verknüpft. Das sind Produkte wie ChatGPT, die in der Lage sind, mit natürlichem Text zu arbeiten, eine gewisse Kreativität an den Tag legen und ein sehr großes und generelles Einsatzgebiet haben, im Vergleich zu den sehr speziellen Lösungen, die wir in der Vergangenheit gesehen haben.

Was kann man sich unter einem Large language model vorstellen?

Bernhard Knasmüller: LLM wie ChatGPT werden auf sehr große Datenmengen trainiert - also wirklich big Big Data - die eigentlich nur von sehr großen Konzernen mit gigantischen Rechenzentren und einer sehr großen Anzahl an Grafikkarten verarbeitet werden können. Aus diesen trainierten Modellen entstehen dann sogenannte Foundation Models. Das sind noch sehr generell einsetzbare Modelle, eben zum Beispiel die GPT-Familie von OpenAI. Aus diesen Foundation models können dann mit Feintuning und sogenanntem Prompt Engineering fertige Modelle gebaut werden, die dann auf irgendeinen bestimmten Task, also eine bestimmte Art von Arbeit spezialisiert sind. Bei ChatGPT ist das zum Beispiel die Aufgabe, auf Chatnachrichten zu antworten – und diese Antwort soll natürlich so sein, dass sie die Frage mit einer gewissen Wahrscheinlichkeit beantwortet. Das klingt auch noch sehr generell, aber die Foundation models könnten zum Beispiel auch darauf trainiert sein, Instruktionen zu erstellen oder Texte zu vervollständigen. Also da gibt es noch eine größere Anzahl an möglichen Aufgaben.

ChatGPT ist bereits in der breiten Masse der Bevölkerung angekommen. Gibt es darüber hinaus noch etwas anderes, das momentan vielleicht noch nicht so viel Aufmerksamkeit bekommt?

Bernhard Knasmüller: Diese typischen Use Cases „Bitte schreib mir eine E-Mail“, „Bitte schreib mir eine Hausaufgabe“ etc. waren am Anfang natürlich das, was die breite Masse fasziniert hat. Tatsächlich sind die Modelle sehr, sehr flexibel einsetzbar, auch innerhalb von Businessprozessen beispielsweise. Das geht von E-Mail-Klassifizierung in verschiedene Abteilungen über Codeprogrammierung bis hin zu Datenanalyse. Seit einiger Zeit gibt es auch die Möglichkeit, mit Plug-ins zu arbeiten, die in der Lage sind, Codes zu schreiben und zu verstehen oder Plots zu erstellen. Also es gibt da schon sehr vielfältige Werkzeuge – und ich denke nicht, dass wir alle die gesamte Tragweite dessen, was auf uns zurollt, schon erfasst haben.

Die Tragweite ist ein wichtiger Punkt – und es gibt viele Bedenken. Stehen wir hier vor einer Veränderung, die uns als Gesellschaft nachhaltig umgestalten wird?

Bernhard Knasmüller: Das Ersetzen von Jobs ist natürlich immer eine Frage, die in diesem Kontext gestellt wird. Die Antwort der meisten Expert:innen ist dann, dass in Summe neue Jobs entstehen und bestehende Jobs produktiver werden. Die Wahrheit ist natürlich, dass gewisse Arten von Berufen in den nächsten Jahren marginalisiert werden oder auch aussterben. Die Frage ist natürlich, wie man als Gesellschaft dann damit umgeht. Ist es sinnvoll, diese neue Technologie zu Tode zu regulieren? Ich persönlich glaube nicht, dass wir, als Europa es uns leisten können, nicht auf diesen Zug aufzuspringen, denn ich halte es eher für gefährlich, wenn wir dann de facto das Feld Ländern wie China überlassen, die wesentlich weniger Regularien planen und vielleicht nicht mit unseren Vorstellungen einer liberalen Demokratie agieren.

Wir müssen uns also dem Thema stellen, um nicht technologisch ins Hintertreffen zu geraten?

Bernhard Knasmüller: Ja, definitiv. Wir sehen, dass KI jetzt in sehr vielen Bereichen die Eintrittshürden deutlich verringert. Das bringt natürlich auch Chancen, dem Fachkräftemangel etwas entgegenzuwirken. Denkt man z. B. an den Bereich der Softwareentwicklung, wo man mithilfe von KI und Tools wie GitHub Copilot – einer Art Co-Pilot, der kleine Programmierfehler bemerkt oder auch eigenständig Codes weiterschreiben kann – fehlende Fachkräfte in einem gewissen Ausmaß kompensieren bzw. bestehende Entwickler produktiver machen kann. Daher halte ich es nicht für richtig, jetzt zu früh durch zu strenge Regulatorik das Thema den großen Konzernen zu überlassen – das ist, denke ich, nicht der richtige Zugang.

Wie eingangs schon erwähnt, schafft KI Möglichkeiten für kreativere Ansätze. Das betrifft leider auch den cyberkriminellen Bereich – sie bietet eine Vielzahl an Möglichkeiten, Angriffe zu lancieren. Inwieweit wird sich das Thema Künstliche Intelligenz in den Cyberangriffen widerspiegeln?

Bernhard Knasmüller: Das ist eine berechtigte Frage. Das Problem ist, dass Angreifer in der Regel in der Gruppe der Early Adopters zu finden sind, was neue Technologien betrifft und daher vielleicht einen gewissen Startvorteil gegenüber den Verteidigern haben, die hier noch etwas zögerlicher agieren. Umso wichtiger ist es, glaube ich, dass man zumindest mal die Awareness schafft, welche neuen Arten von Angriffen durch solche KI-Unterstützung jetzt möglich werden.

Es heißt immer, die Angreifer finden ihre Tools und Werkzeuge im Darknet – gibt es hier eigentlich auch schon etwas Ähnliches für KI-basierte Angriffssysteme?

Bernhard Knasmüller: Wir haben tatsächlich schon einiges im Darknet oder einschlägigen Hackerforen gesehen. Einerseits haben Angreifer bereits begonnen, selbst Modelle zu bauen und im Open Source Bereich anzubieten. Das sind ähnliche Tools wie ChatGPT, aber basierend auf LLMs, die sie daraufhin trainiert haben, für angreifende Zwecke verwendbar zu sein – was mit Tools wie z. B. ChatGPT nicht möglich ist, da hier entsprechende Schutzmechanismen eingebaut sind. Andererseits gibt es in diesen Hacker- bzw. Darknet-Foren die Möglichkeit, Jailbreaks zu erwerben, die versuchen, Tools wie ChatGPT die antrainierten Einschränkungen auszureden.

Es geht also eigentlich um die Kunst, diese Sicherheitsmaßnahmen beziehungsweise diese Schranken zu umgehen?

Bernhard Knasmüller: Richtig, und die Angreifer haben einerseits sehr viel Zeit und andererseits sehr viel Energie, um sich neue kreative Lösungen zu überlegen, solche Sperren zu umgehen. Und es wird wahrscheinlich noch einige Zeit dauern, bis Modelle wie ChatGPT es schaffen, solchen Angriffen zu widerstehen.

Jetzt gibt es aber nicht nur textbasierte Modelle wie ChatGPT, die von Angreifern genutzt werden. Die Möglichkeiten, die durch die Künstliche Intelligenz entstehen, betreffen uns natürlich auch bei der Verwendung von Videokonferenzsystemen. Wann wird dieser Bereich eine Herausforderung für uns als Gesellschaft?

Bernhard Knasmüller: Leider wahrscheinlich sehr bald. Wir haben ja schon gesehen, dass es mit sehr viel Aufwand heute schon möglich ist, sogenannte Deepfakes zu produzieren, die mit freiem Auge für Laien nicht mehr unterscheidbar sind. Momentan funktioniert es bei Videos noch leichter mit öffentlichen Personen, da hier sehr viel Bildmaterial im Internet vorhanden ist. Im Tonbereich reicht allerdings tatsächlich auch heute schon eine ca. 30-sekündige Sprachaufnahme einer Person, um ein relativ realistisches Sprachmodell damit zu trainieren und dann einen beliebigen Text ausgeben zu lassen. Das macht es extrem schwer zu beurteilen, ob man z. B. einem unbekannten Anrufer vertrauen kann. Im Businessbereich haben wir durch E-Mail-Adressen oder MS Teams-Accounts derzeit noch eine gewisse Schwelle, aber ewig wird man uns über Video oder Audio wahrscheinlich nicht mehr eindeutig zuordnen können.

Müssen wir uns als Gesellschaft auf viel herausforderndere Angriffsmuster als bisherige Phishingmails einstellen?

Bernhard Knasmüller: Definitiv. Um vielleicht ein konkretes Beispiel zu bringen: Jede:r kennt diese SMS-Nachrichten von einem Paketdienstleister, in der ein Link angeführt ist zum Abholen des Pakets – dieser Link enthält dann natürlich einen Schadcode. Solche zugeschnittenen SMS werden dann besonders häufig in der Weihnachtszeit verschickt, in der viele Personen Versanddienste in Anspruch nehmen und somit weniger alarmiert sind, wenn so eine Nachricht kommt. Es ist eine recht unaufwendige Methode für Angreifer, eine große Anzahl an Menschen zu erreichen. Oft reichen hier nur ein paar Backgroundinformationen aus einer Googlesuche, um mithilfe von LLM eine total zugeschnittene Nachricht mit einem Schadcode-Link zu erstellen.

Noch gefährlicher wird es, wenn es einem Angreifer gelingt, ein E-Mail-Postfach zu übernehmen. Dann kann der Eindringling mithilfe von KI sämtliche Konversationen nachlesen und die LLM auf den jeweiligen Schreibstil trainieren, um so Nachrichten verschicken zu können, die praktisch nicht mehr vom Original unterschieden werden können – im Gegensatz zu vielen derzeitigen Phishingmails, die oft noch grammatikalische Fehler aufweisen. Allerdings ist hier auch die Quantität eine gewisse Qualität, denn wenn man jetzt in einer Stunde 1.000 E-Mails verschicken kann, dann wird wahrscheinlich auch einer drauf reinfallen.

Wir werden also eine neue Qualität von Angriffen im Bereich des Social Engineerings erleben, wo es uns schwerfallen wird, zwischen Realität und Fiktion zu unterscheiden.

Bernhard Knasmüller: Auf jeden Fall – vor allem jetzt in der Anfangsphase, wo die Angreifer sich dieser Möglichkeiten schon bewusst sind, aber z. B. die Unternehmen davon noch überrumpelt werden. Darum finde ich es auch so wichtig, Awareness zu schaffen, die Möglichkeiten solcher Tools zu demonstrieren.

Welche Tipps, welche Empfehlungen gibt es?

Bernhard Knasmüller: Ein wichtiger Punkt, um den Gefahren etwas entgegenzuwirken, ist eine starke Authentifizierung – wie die Zwei-Faktor-Authentifikation und ein starkes Passwort. Aber natürlich muss auch von technischer Seite daran gearbeitet werden, sprich die Verteidigungssysteme müssen sich mit dem Thema KI beschäftigen. Und das passiert ja auch. Es gibt schon einige Security-Unternehmen, die versuchen, KI auch in ihre Produkte einzubauen und somit Werkzeuge zur Verfügung zu stellen, die mit solchen Angriffen umgehen können. Und zu guter Letzt ist es natürlich wichtig, eine kritische Haltung gegenüber Informationen zu bewahren und auch zu hinterfragen bzw. sich mit Quellen kritischer auseinanderzusetzen.

Wenn wir in 12 Monaten wieder über das Thema Künstliche Intelligenz reden, was würden wir uns dann wünschen, heute schon getan zu haben?

Bernhard Knasmüller: Wie wir eingangs schon erwähnt haben, müssen wir den europäischen Standort in jederlei Hinsicht stärken, einerseits mit Investitionen im Bereich KI als auch was das Thema Grundlagenforschung betrifft. Es ist immer noch sehr viel los im Forschungsbereich, und Österreich hätte durchaus die Möglichkeit, da noch mitzumischen. Es hat leider derzeit offenbar keine Priorität und das ist definitiv ein Punkt, der verbesserbar ist.

Weiters wäre es für Unternehmen jetzt ein sehr guter Zeitpunkt, sich mit dem Thema KI-Strategie auseinanderzusetzen. Welche Auswirkungen wird KI auf meine Produkte, auf meine Dienstleistungen und meine internen Prozesse haben?

Und ganz besonders relevant ist eben das Thema Security. Wir müssen uns damit auseinandersetzen und uns bewusst werden, wie wir auf die neuen Arten von Risiken reagieren.

Zusammenfassend lässt sich also sagen: Wir müssen den neuen Technologien auf Augenhöhe begegnen und diese für uns nutzen, aber gleichzeitig auch die Risiken entsprechend ausbalancieren.


KPMG Podcast

Jetzt das ganze Interview in unserem Podcast IMPULSE hören:


Mehr dazu