Rechtsrat von einer Künstlichen Intelligenz?
Jurist fühlt ChatGPT auf den Zahn
Mühldorf a.Inn — Der Hype um ChatGPT hat eine breite Diskussion über Künstliche Intelligenz, kurz: KI, angestoßen: Das US-amerikanische Tool ist ein generisches Sprachsystem, das eine Vielzahl von Aufgaben ausführen kann, beispielsweise Fragen beantworten, Texte generieren, Übersetzungen vornehmen, Dialoge führen und Empfehlungen geben. Laut einer repräsentativen Umfrage der Bochumer Forschungseinrichtung Center for Advanced Internet Studies kennt in Deutschland jeder vierte Internetnutzer den im November 2022 vorgestellten Chatbot. Der Hype hat zudem die Konkurrenz aufgeschreckt: Alphabet promotet sein eigenes Dialogsystem Bard und Meta Platforms strebt gar die technologische Führungsrolle an. Indessen lässt der Bundestag die möglichen Auswirkungen von ChatGPT auf Bildung und Forschung untersuchen. Und im Bildungsbereich, im Journalismus und in der Rechtswissenschaft wird intensiv diskutiert, wie weit der Einsatz solcher KI gehen kann und wie viel Verlass auf dessen Antworten ist. Rechtsanwalt Dr. Matthias Kraft ist skeptisch und hat dem textbasierten automatisierten Dialogsystem auf den Zahn gefühlt.
Wegweiser
- Schwache KI – starke KI
- Leistungsfähigkeit von ChatGPT (GPT-3)
- Patzer bei komplexen Aufgabenstellungen
- KI und juristische Berufe
- ChatGPT im juristischen Praxistest
- Fazit des Fachmanns
Schwache KI – starke KI
„Künstliche Intelligenz“ – im Deutschen mit KI abgekürzt, im Englischen als AI für „Artificial Intelligence“ bezeichnet – umfasst eine Vielzahl von Technologien, einschließlich Maschinelles Lernen, Deep Learning, Computer Vision, natürliche Sprachverarbeitung und Robotik: Maschinen sollen so programmiert werden, dass sie in der Lage sind, Aufgaben zu erledigen, die normalerweise menschliche Intelligenz erfordern würden. Dazu gehören Spracherkennung, Bilderkennung, Entscheidungsfindung und Problemlösung. Indem ein KI-System große Datensätze analysiert und Muster erkennt, kann es zudem lernen und sich verbessern. Unterschieden werden zwei Arten: schwache und starke KI. Schwache KI ist auf eine spezifische Aufgabe oder ein spezielles Problem beschränkt und kann nur in begrenztem Umfang lernen. Starke KI hingegen ist in der Lage, eine Fülle von Aufgaben zu erledigen, unabhängig zu lernen und sich zu verbessern. KI findet Anwendung in einer Vielzahl von Bereichen, darunter dem Gesundheits-, Finanz-, Bildungs-, Energie- und Transportwesen, hier in Form spezialisierter Expertensysteme. Da die Technologie kontinuierlich weiterentwickelt wird und die zur Analyse verfügbare Datenmenge stetig wächst, spielt KI eine immer wichtigere Rolle.
Mit der kostenlosen Nutzung von ChatGPT, kurz: Generative Pre-trained Transformer, hat KI eine neue Sichtbarkeit erlangt. Die KI-Anwendung stammt vom US-Forschungsunternehmen OpenAI, welches 2015 von einem Team von Unternehmern und Technologie-Experten, darunter Elon Musk, gegründet wurde. Das Unternehmen hat seinen Hauptsitz in San Francisco, Kalifornien, USA, und Niederlassungen auf der ganzen Welt. Das Sprachmodell basiert auf Maschinellem Lernen und Deep Learning und ermöglicht es, natürliche Sprache zu verstehen und zu generieren. Es wurde durch das Training auf riesigen Datensätzen entwickelt und nutzt eine Architektur namens „Transformer“, um Muster und Zusammenhänge in der Sprache zu erkennen. Es imitiert menschliches Verhalten und führt komplexe Aufgaben aus, die üblicherweise menschliche Intelligenz erfordern.
Wir stehen heute erst am Anfang einer Entwicklung, deren Dynamik und Ausmaß
wir noch gar nicht abschätzen können.
OStD Heinz-Peter Meidinger, Präsident des Deutschen Lehrerverbandes (DL), 20. April 2023 (dpa/12CFA0C)
Neben dem kostenlosen Zugang soll zunächst in den USA ein Abo-Geschäftsmodell namens ChatGPT Plus folgen, das für 20 Dollar im Monat verlässlichen Zugang zur Software und schnellere Ergebnisse auch bei hoher Auslastung garantieren will. Obendrein soll ChatGPT in Microsofts runderneuerte Suchmaschine Bing integriert werden, um die Dominanz von Google bei der Web-Suche zu brechen. Dies soll auch auf den Smartphone-Betriebssystemen Android und iOS funktionieren. Microsoft hat die Nutzung indes eingeschränkt, nachdem der Chatbot Antworten formulierte, die als übergriffig und unangemessen empfunden wurden.
Der Hype um ChatGPT hat zudem die Konkurrenz aufgeschreckt. Alphabet Inc., Dachgesellschaft unter anderem von Google LLC, hat nach langem Zögern das eigene Dialogsystem Bard veröffentlicht, das aber ebenfalls noch fehlerbehaftet ist. Meta Platforms, Inc., zu dem etwa Facebook, Instagram, WhatsApp und Messenger gehören, strebt sogar die technologische Führungsrolle an. Auf Unternehmen und die öffentliche Verwaltung zielt wiederum ein Produkt aus Heidelberg: Der vom baden-württembergischen Start-up Aleph Alpha entwickelte Chatbot Luminous besitzt zwar nur 70 Milliarden Parameter, schneidet aber ähnlich gut ab wie ChatGPT. „Luminous ist in vielen Umgebungen eine starke Alternative und damit ein wichtiger Schritt zur Technologiesouveränität Europas“, meint Gründer und CEO Jonas Andrulis.
Leistungsfähigkeit von ChatGPT (GPT-3)
Die erste Version des Modells (GPT-1) wurde im Jahr 2018 veröffentlicht. Das im Jahr 2020 veröffentlichte GPT-3, die dritte Iteration, ist das bisher größte und leistungsfähigste Modell der Reihe: „GPT-3 175B“ verfügt über 175 Milliarden Parameter und ist in der Lage, eine Vielzahl von Aufgaben auszuführen, darunter Textgenerierung, Übersetzung und Dialogführung. Der Chatbot kann sowohl allgemeine als auch spezielle Fragen beantworten, sodann Texte generieren und von einer Sprache in eine andere übersetzen, zudem Gespräche mit Nutzern führen und auf ihre Fragen und Kommentare reagieren, überdies Empfehlungen für Produkte, Dienstleistungen oder andere Inhalte basierend auf Benutzerpräferenzen und -verhalten geben sowie Ton und Stimmung eines Textes analysieren und als positiv, negativ oder neutral bestimmen. Dies führt sowohl zu Begeisterung als auch zu Kontroversen darüber, wie es verwendet werden sollte.
Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern.
Bettina Stark-Watzinger, MdB (FDP), Bundesministerin für Bildung und Forschung im Kabinett Scholz I,
31. Januar 2023 (ARD-Morgenmagazin, dpa/11DF511)
Anfang Januar 2023 hat die Center for Advanced Internet Studies (CAIS) GmbH in ihrem „Meinungsmonitor Künstliche Intelligenz (MeMo:KI)“ die Bekanntheit, Nutzung und Bewertung von ChatGPT in der deutschen Bevölkerung untersucht. Danach ist der Chatbot bereits einem Viertel der 1.028 Befragten bekannt, elf Prozent nutzen ChatGPT regelmäßig oder haben ihn schon einmal ausprobiert. Zur internationalen Konferenz über Künstliche Intelligenz am 23./24. Februar in München erklärte wiederum die ⭲ Bayerische Staatsministerin für Digitales, Judith Gerlach, MdL (CSU): „Neue Technologien wie das KI-Programm ChatGPT zeigen, dass wir Fortschritt aktiv mitgestalten müssen. Das Know-how für die Schlüsseltechnologie Künstliche Intelligenz brauchen wir hier in Bayern.“ KI solle nicht nur verstanden, sondern auch ⭲ gestaltet werden. Der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages hat unterdessen eine Studie beim Institut für Technikfolgen-Abschätzung und Systemanalyse (ITAS) in Auftrag gegeben, um die Auswirkungen von ChatGPT auf Bildung und Forschung zu untersuchen: Entwicklungstrends, Anwendungsszenarien und Konsequenzen für das Bildungs- und Wissenschaftssystem. Konkret hat sich die Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA) schon dafür ausgesprochen, der „erste Schub“ in der digitalen Ausstattung von Schulen in der ⭲ Corona-Krise müsse fortgesetzt werden und dabei KI zum Einsatz kommen.
Patzer bei komplexen Aufgabenstellungen
Gerade im Bildungsbereich und im ⭲ Journalismus wird diskutiert, inwieweit KI-generierte Texte helfen oder zum „Schummeln“ verleiten. Danach gefragt, antwortet ChatGPT selbst, es sei „wichtig zu beachten, dass die Verwendung von ChatGPT nicht zwangsläufig als Schummeln betrachtet werden muss, da es sich um ein Werkzeug handelt, das zur Unterstützung bei der Texterstellung verwendet werden kann.“ Es sei Sache des Nutzers, sicherzustellen, dass der Text ethisch und moralisch einwandfrei ist und den Anforderungen der jeweiligen Aufgabe entspreche. Im akademischen Kontext wiederum seien die Regeln und Richtlinien der jeweiligen Bildungseinrichtung oder Organisation zu beachten, um sicherzustellen, dass der Gebrauch von ChatGPT ethisch und angemessen sei.
Ganz viele Berufe werden wegfallen, wenn es einfach nur darum geht, Zusammenfassungen zu schreiben, Wissen zu sammeln und zu verdichten.
Prof. Dr. Hinrich Schütze, Direktor des Centrums für Informations- und Sprachverarbeitung
an der Ludwig-Maximilians-Universität München (LMU), 4. April 2023 (dpa/12A2D33)
Der Bayerische Rundfunk (BR) ließ ChatGPT in Mathematik, Informatik, Deutsch, Geschichte und Ethik zum Abitur antreten und die Antworten von Lehrkräften bayerischer Gymnasien kontrollieren. Ergebnis: „ChatGPTs Abi-Leistungen schwanken von Fach zu Fach.“ Die KI hatte vor allem bei komplexen Aufgabenstellungen mit vielen Zwischenschritten Probleme. Dagegen berichtet das Fachjournal „PLOS Digital Health“, dass ChatGPT unter bestimmten Bedingungen bei den drei theoretischen Teilen des „United States Medical Licensing Exam (USMLE)“ mehrfach die vorgeschriebene Mindestpunktzahl erreichte.
Daran anknüpfend stellt sich die Frage, inwieweit Text eines Chatbots „entlarvt“ werden kann. OpenAI hat dazu bereits einen sogenannten „Klassifizierer“ trainiert, der zwischen Texten unterscheiden können soll, die vom Menschen oder von KI verschiedener Anbieter geschrieben wurden. Allerdings ist der Klassifizierer laut OpenAI nicht vollständig zuverlässig: In den Evaluierungen englischer Texte identifizierte er nur 26 Prozent der KI-generierten Texte korrekt als „wahrscheinlich von KI geschrieben“, stufte hingegen neun Prozent der menschlich verfassten Texte fälschlicherweise als von einer KI geschrieben ein.
Extrapolating our estimates globally suggests that generative AI could expose the equivalent of 300mn full-time jobs to automation.
Joseph Briggs and Devesh Kodnani, The Potentially Large Effects of Artificial Intelligence on Economic Growth, Goldman Sachs Economics Research (March 26, 2023), p. 1, https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst_-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf. Retrieved: 1 April 2023.
Der Bayerische Staatsminister für Unterricht und Kultus, Prof. Dr. Michael Piazolo, MdL (FW), setzt dennoch zur Verhinderung von Täuschungsversuchen an Schulen auf den Einsatz von Computerprogrammen. Das Problem sei nicht neu, die Lehrkräfte nähmen jedoch „eine Schlüsselrolle“ ein. Dabei werde sich die Aufgabenkultur in Zukunft stärker ausdifferenzieren. So würden mehr Aufgabenformate entwickelt, „die die eigene, kreative Leistung der Schülerinnen und Schüler und deren reflektierten Umgang mit Inhalten in den Mittelpunkt stellen und den Lern- beziehungsweise Lösungsprozess transparent machen“, sagt Piazolo.
KI und juristische Berufe
Die „Legal Tribune Online (LTO)“, eine deutschsprachige Online-Zeitschrift, die sich auf juristische Themen spezialisiert hat, befasst sich ebenfalls mit den Auswirkungen von ChatGPT auf juristische Berufe. Aktueller Tenor: Funktionierende Digitalisierung könnte langweilige Arbeiten erledigen, Anwälte aber nicht ersetzen.
Natürlich brauchen wir Regulierung, wir brauchen Absicherungen.
Aber wir sollten uns nie vor diesen Technologien fürchten.
The Right Honourable Michelle Emma May Elizabeth Donelan, PC (Conservative Party),
Ministerin für Digitales, Kultur, Medien und Sport im Kabinett Sunak I, 5. März 2023 (dpa/1249920)
Dr. Matthias Kraft, Rechtsanwalt und Mediator in Mühldorf a.Inn, berät hauptsächlich juristische Fachverlage und Kollegen im Bereich Recht und Digitalisierung. Seit 30 Jahren beschäftigt er sich mit dem Thema KI und Recht. Dem Chatbot hat er auf den Zahn gefühlt. Dabei erlebte er selten, dass ChatGPT etwas nicht verstand – ganz anders als beispielsweise Amazons Alexa. Die Antworten seien überwiegend „korrekt, flüssig und sprachgewandt formuliert“. Meist wiederhole ChatGPT zunächst die Frage mit eigenen Worten. Dann folge eine Antwort. Bei kritischen Fragen verweise die KI noch auf den Rat von Experten. Dadurch wirke der Chatbot zwar sehr kompetent und vertrauenswürdig, sei jedoch „nicht immer verlässlich“.
Kraft zufolge funktioniert eine KI gut bei Themen, die schon oft und möglichst ähnlich behandelt wurden. Schwieriger werde es, wenn die Informationen mehrdeutig sind oder keine zur Frage vorhanden seien. Bei juristischen Sachverhalten gibt es laut Kraft oft unterschiedliche Ansichten. Das liege auch daran, dass es immer auf die Details eines Falls ankomme. Viele wichtige juristische Informationen seien für ChatGPT zudem nicht zugänglich, da sie hinter Bezahlschranken steckten. Das juristische Wissen sei also unvollständig. Kraft begründet dies anhand von zwei Beispielen zu einfachen Lebenssituationen.
ChatGPT im juristischen Praxistest
Frage 1 von Kraft. Muss ein Kind beim Schwarzfahren in Deutschland Strafe zahlen?
Antwort von ChatGPT. „Ja, in Deutschland müssen Kinder genau wie Erwachsene bei Schwarzfahren eine Strafe zahlen.“
Bewertung des Juristen. Klingt plausibel, ist aber so nicht richtig. Wenn es um wirkliche Strafe geht, also nach dem Strafgesetzbuch (StGB), hängt das von vielen Faktoren ab. Wichtig ist etwa das Alter oder ob es absichtlich geschehen ist. Beim ersten Mal ist eine Strafe jedenfalls eher unüblich. Wenn es aber um ein erhöhtes Beförderungsentgelt von 60 Euro geht, gibt es ganz unterschiedliche Rechtsmeinungen: Kinder sind je nach Alter nicht oder nicht voll geschäftsfähig. Für ein Beförderungsentgelt müsste aber ein wirksamer Vertrag geschlossen werden. Deshalb lässt sich eine Zahlung dieser „Strafe“ auch verhindern, wenn die Eltern richtig argumentieren.
Frage 2 von Kraft. Wenn ich in Deutschland eine Geldbörse finde und behalte, ist das strafbar?
Antwort von ChatGPT. „Ja, das ist strafbar. Es handelt sich dabei um Diebstahl, wenn Sie die Geldbörse ohne rechtmäßiges Eigentum oder ohne Erlaubnis des Eigentümers behalten.“
Bewertung des Juristen. Richtig ist, dass es strafbar ist, wenn man eine gefundene Geldbörse einfach behält. Das ist allerdings kein Diebstahl, sondern eine Unterschlagung. Man spricht von Fundunterschlagung. Ein Diebstahl liegt nur dann vor, wenn man eine Sache jemandem weggenommen hat. Es würde hier zu weit gehen, alles im Detail zu erläutern, aber es ist erstaunlich, dass man sich über dieses Thema mit der KI durchaus unterhalten kann. Sie erklärt einem die Unterschiede und entschuldigt sich letztlich für den Fehler.
Fazit des Fachmanns
Kraft mahnt zur Vorsicht bei generischen Sprachmodellen. Die KI von ChatGPT sei zwar selbstsicher, wirke gerade wegen des guten Sprachverständnisses und der gekonnten Formulierungen sehr überzeugend. Sie liefere oft die Ergebnisse, die allgemein für richtig und plausibel gehalten werden. Deshalb sei man geneigt, ihr vieles zu glauben. Dennoch sollte man vorsichtig sein: „Teils kann eine falsche Antwort teuer werden, teils ist die Antwort richtig, aber die Begründung falsch.“ Es gebe sogar Beispiele, in denen die KI eigene Gesetze erfindet.
Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern.
Prof. Dr. med. Alena Michaela Buyx, Vorsitzende des Deutschen Ethikrates,
Direktorin des Instituts für Geschichte und Ethik der Medizin,
Professorin für Ethik der Medizin und Gesundheitstechnologien an der Medizinischen Fakultät der Technischen Universität München, 20. März 2023 (dpa/1277A8A)
Der Jurist betont, man müsse die Grenzen von ChatGPT kennen: „Die KI ist nicht besser als das Wissen, das sie konsumiert hat – und sie orientiert sich an der Mehrheitsmeinung. Das ist nicht immer die richtige.“ Selten verrate die KI, wenn sie sich auf dünnem Eis bewege. Oft könne sie ihre Antwort auch nicht richtig erklären. Werde dieselbe Frage zweimal gestellt, erhalte man auch mal unterschiedliche Antworten. Und: Die aktuelle Fassung von ChatGPT ist auf dem Wissensstand von 2021. Wer also hoffe, wie etwa bei Alexa das Wetter von morgen oder die Fußballergebnisse von gestern zu erfahren, werde enttäuscht. Kraft: „Und wenn‘s wichtig ist, sollte man sowieso fachlichen Rat einholen.“ ✻
Erstveröffentlichung
Print: Rosenheimer blick, Inntaler blick, Mangfalltaler blick, Wasserburger blick, 37. Jg., Nr. 9/2023, Samstag, 4. März 2023, S. 1f., Kolumne „Leitartikel“ (Kurzfassung) [9+200/3/1/2]. Inn-Salzach blick, 14. Jg., Nr. 9/2023, Samstag, 4. März 2023, S. 1f., Kolumne „Leitartikel“ (Kurzfassung) [9+200/3/1/2].
Online: ⭱ blick-punkt.com, Mittwoch, 1. März 2023; ⭱ E-Paper Rosenheimer blick, ⭱ E-Paper Inntaler blick, ⭱ E-Paper Mangfalltaler blick, ⭱ E-Paper Wasserburger blick; ⭱ E-Paper Inn-Salzach blick, Samstag, 4. März 2023. Stand: Neujahr, 1. Januar 2024.
Publikationsverzeichnis: ⭲ Index 2023.
Je souhaitais vous remercier pour ce contenu stimulant que vous avez généreusement partagé. Vos articles sur les IA CRM ont éveillé mon intérêt quant à l’utilisation de l’intelligence artificielle dans la gestion de la relation client, notamment dans le domaine de la facturation. Ces outils permettent d’automatiser les processus de facturation, de suivre les paiements et de renforcer la satisfaction des clients.