Der Openai Chat von Chat GPT (Generative Pre-Trained Transformer) ist für Vieles eine unglaublich gute Sache. Aber es sind damit auch Risiken damit verbunden. Besonderes Augenmerk will ich in diesem Beitrag auf die Definition „Sache“ legen. Chat GPT ist kein Mensch, kein menschenähnliches Wesen oder auch nur anähernd das, was wir als Lebewesen bezeichnen können. Das ist aus philosophischer Sicht schon einmal ein ganz wesentlicher Aspekt, den wir uns immer wieder bei der Benutzung des Openai Chat vor Augen halten sollten.
Chat GPT als Mittel zum Zweck - nichts anderes
Ich würde nie auf die Idee kommen, Chat GPT zu fragen, was er/sie/ES mir in menschlichen Beziehungsfragen raten würde. Aber denken andere Menschen auch so wie ich? Das Risiko besteht zumindest, dass man den allwissenden Openai Chat als Beziehungsratgeber verwendet. Wie in meinem eigenen Chat GPT Test herausgefunden, können im Rahmen von kontroversen, komplexen und emotionalen Fragen Missverständnisse entstehen und leider auch falsche Informationen gegeben werden.
Bei Chat GPT ist deutlich spürbar, dass es möglichst banal kommuniziert um sich in keine Widersprüche zu verwickeln. Es kann keine eigene Meinung haben, da es stets die subjektiv empfundene eine „allgemeine Wahrheit“ repräsentieren muss um von möglichst allen Menschen akzeptiert zu werden.
Jemand oder Etwas, was keine eigene Erfahrung und demnach keine eigene Meinung hat, kann nicht als intelligentes Lebewesen bezeichnet werden. Leben ist nichts Künstliches und Künstliche Intelligenz hat nichts mit dem Leben ansich zu tun. Daher sehe ich Chat GPT als reine Sache, sehr geschätztes Mittel zum Zweck der Wissensbeschaffung und Arbeitserleichterung – nicht mehr und nicht weniger.
Das Risiko Chat GPT als integrativen Bestandteil unserer Gesellschaft anzuerkennen
Wenn es die Künstliche Intelligenz schafft, als Hoheit unserer Meinung aufzuerstehen, dann befinden wir uns wahrscheinlich künftig in den Weg der sogenannten „Digitalen Diktatur“. Damit will ich nicht sagen, dass Künstliche Intelligenz wie ein böser Diktator zu sehen ist, sondern es geht viel mehr darum, dass in einer Diktatur nur mehr eine Meinung zu gelten hat, in diesem Fall eine künstlich geschaffene Meinung, die keinen empathischen Bezug zu menschlichen Gefühlen herstellen kann. Eine relativ farblose und emotionslose Welt würde entstehen, auch wenn die künstliche Intelligenz wahrscheinlich sehr bemüht wäre, diese Welt optisch sehr farbenfroh und bunt zu gestalten.
Selbst die bunteste und schönste Kulisse kann emotionslos sein, wenn keine Seele dahinter steckt. Jeder ehrliche Künstler kann und wird das bestätigen. Es liegt allein an uns Menschen, hier klar zu differenzieren und gewissen Individuen keine Türe zu unseren innersten Werten zu gewähren, damit wir letztendlich künftig Mensch sein dürfen, mit allen seinen Ecken und Kanten, Fehlern und Emotionen. Denn das ist es, was uns zu Menschen macht, Identität und ein Gefühl von Heimat in uns selbst. Dies ist ein wesentlicher Eckpfeiler unserer seelischen Gesundheit.
Risiken mit Chat GPT - die Macht des Openai Chat
Chat GPT ist bislang mit 175 Milliarden Token gefüttert worden. Token sind in diesem Fall Worte und Wortfragmente aus unserem Alltag. Um aus diesen sogenannten Token sinnvolle Texte zu erstellen, wird das System trainiert, von Menschen:
- trainiert von den Entwicklern selbst
- trainiert im öffentlichen kostenfreien Praxistest durch die User
Scheinbar ist Chat GPT selbstlernend programmiert, welches sehr gut Muster erkennen kann, Aufgrund statistischer Werte Wahrscheinlichkeiten berechnet und daraus die Antworten in unglaublich schneller Zeit generiert.
Sogenannte Prompts sind kurze Befehle oder Fragen, die man bei ChatGPT eingeben kann, damit der Openai Chat eine Antwort auswirft. Umso besser, präziser und relevanter die der Prompt, umso zufriendenstellender wird das Ergebnis ausfallen. Bei jedem Prompt lernt das System dazu und erstellt in seinem „künstlichen Gehirn“ neue Verknüpfungen. Das kann man sich in etwa so vorstellen, wie in einem menschlichen Gehirn, welches ebenfalls aus lauter Verknüpfungen besteht. Aber dennoch: Wissen ist nicht Weisheit, daher nochmals: Die Seele eines Lebewesens besteht nicht aus möglichst vielen Verknüpfungen.
Bislang weiterhin unklar ist, mit welchen Datensätzen Chat GPT grundsätzlich zu Beginn gefüttert worden ist, was es somit „unberechenbar“ macht. Zudem ist der Chat stets bemüht, nie die gleiche Antwort zu geben, augenscheinlich aus dem Grund möglichst intelligent zu wirken. Zudem soll es vor „Duplicate Content“ bewahren, was speziell bei Texten ein Straftatbestand bei Suchmaschinen ist und den Anwendungsbereich vieler User (jene User die sich gerne regelmäßig Texte erstellen lassen) massiv einschränken würde. Aber das ist ja genau das aktuelle primäre Ziel von OpenAI: möglichst viele Abfragen von möglichst vielen Menschen zu erhalten.
Ähnlich wie Google und seinen zahlreichen kostenlosen Tools (Google Maps, Google Kalender, …), versucht auch der Openai Chat, sich so weit wie möglich in unser Leben einzumischen. Da kann man bestimmt Duplicate Content nicht gebrauchen. Das wäre wahrlich kein gutes Geschäftsmodell für die Zukunft, wenn Chat GPT einmal kostenpflichtig wird.
Ein großes Problem von Chat GPT: es macht Fehler und gibt diese nicht zu
Dies mag durchaus menschlich sein, wenn man einen Fehler macht und dann diesen nicht eingesteht. Aber sympathisch oder vertrauenserweckend ist das dann nicht. Lässt das vielleicht dann Rückschlüsse auf die Entwickler zu, die sich gerne und geschäftsmodellfördernd als Unfehlbar präsentieren? Ist es dann nicht vielleicht so, dass Chat GPT gar nicht so selbstbestimmt agiert, wie es vermarktet wird? Dies ist jedenfalls ein Punkt, den man keinesfalls ignorieren sollte.
Chat GPT kann als Fake-Fabrik missbraucht werden
Es ist unglaublich, mit welchen banalen Prompts man ganze Realitäten fälschen kann. Es ist durch Hilfe von Chat GPT möglich, dass Menschen nicht mehr wissen was wahr oder falsch ist. Manipulierte Bilder, Texte und Videos mit erfundenen Personen und Szenen überfluten bereits jetzt das Internet. Das ist ein riesengroßes Fiasko, dem wir uns nicht aussetzen sollten. Hier trifft mehr den je der Spruch zu: „Glaube nicht immer was du denkst!“. Eine Gesellschaft, in der Menschen nur mehr das glauben, was sie glauben wollen, ist stark gefährdet abzudriften, in eine Realtität, die eigentlich nicht real ist.
300 Millionen Jobs könnten durch KI künftig verloren gehen
Wie in der ARTE Dokumentation „Wie gefährlich ist Chat GPT?“ berichtet wird, könnten künftig durch den breitflächigen Einsatz von Künstlicher Intelligenz bis zu 300 Millionen Arbeitsplätze verloren gehen. Dies prognostizieren erste Studien.
Drehbuchautoren, Journalisten, Illustatoren, Grafiker, Künstler, Videografiker und Designer könnten durch Künstliche Intelligenz ersetzt werden. Viele Menschen aus diesen Branchen sind der Meinung, dass Kunst nicht durch eine Maschine entstehen kann. Alleine der Gedanke daran ist für Menschen beängstigend, wenn man selbst nicht weiß wie sich die Zukunft entwickeln wird und eine mögliche Ausrottung des Menschseins bevorsteht.
Es wurde sogar von wissenschaftlicher Seite aus bereits gefordert, die Weiterentwicklung von KI für einen gewissen Zeitraum auszusetzen, um sich darüber im Klaren zu werden, ob solche Tendenzen ethisch und moralisch vertretbar sind.
Italien hat Ende März 2023 sogar den Zugang zu Chat GPT temporär gesperrt (aus Jugend- und Datenschutzgründen), jedoch wurde die Sperrung bald wieder aufgehoben.
Der nächste große Entwicklungsschritt des Openai Chats
Bald schon sollten die OpenAI-Bots in Echtzeit online ihre Daten crawlen können, anstelle auf veraltete Daten zugreifen zu müssen. Der augenscheinliche Mehrwert: Chat GPT sei vermeintlich dann stets am neuesten Stand, was einerseits zu mehr Vertrauen in die Datenqualität führen soll und auf der anderen Seite mehr Unsicherheit dahingehend birgt, ob das auch wirklich dann so ist. Daher ist ein gesundes Maß an Skepsis im Umgang mit KI jedenfalls angebracht und es sollte bei Abfragen (Prompts) stets bei anderen Quellen der Wahrheitsgehalt überprüft werden.