Andrey Popov / Adobe Stock

Andrey Popov / Adobe Stock

Können Maschinen denken? Diese Frage, die der britische Mathematiker Alan Turing (gest. 1954) schon 1950 stellte, ist aktueller denn je. Um sie zu beantworten, entwickelte der Computerpionier einen Test. Dabei stellt ein Mensch über ein Bildschirmterminal einem anderen Menschen bzw. einem Computer eine Reihe von Fragen zu einem bestimmten Themenkomplex. Der Fragesteller weiß nicht, wer ihm die Fragen beantwortet, der Mensch oder der Computer. Stuft er in mindestens der Hälfte der Testdurchläufe die Antworten des Computers als die des Menschen ein, gilt die Maschine als „künstlich intelligent“.

Eines der ersten Programme, das den „Turing-Test“ bestand, hieß ELIZA, benannt nach einer Frauenfigur in George Bernard Shaws „Pygmalion“. Es wurde 1966 vom deutsch-amerikanischen Informatiker Joseph Weizenbaum (gest. 2008) geschrieben und gilt als Meilenstein der Entwicklung künstlicher Intelligenz (KI). Grundsätzlich soll KI Maschinen in die Lage versetzen, „menschliche Fähigkeiten“ zu erlangen – etwa zu lernen, vorauszuplanen oder kreativ zu denken. KI-Expertinnen und -Experten entwickeln dafür Algorithmen (Handlungsanweisungen für Computer), welche die kognitiven Fähigkeiten des menschlichen Gehirns nachahmen. Anders als bei herkömmlichen Algorithmen werden dabei keine Lösungswege vorgegeben.

Ein aktueller Durchbruch für die Nutzbarmachung von KI für eine breite Öffentlichkeit war die Veröffentlichung von ChatGPT am 30. November 2022. Die über einen Internetbrowser zugängliche KI erstellt anhand weniger Eingaben (Prompts) unter anderem sekundenschnell Texte und Programmiercodes, die sich je nach Eingabequalität so lesen, als ob sie von fachlich versierten menschlichen Autorinnen bzw. Autoren stammen. Einer Studie zufolge könnte eine solche KI zum Beispiel die Produktivität von Programmiererinnen und Programmierern um bis zu 50 Prozent steigern.

Kern der KI ist das mit großen Datenmengen trainierte Sprachmodell GPT (Generative Pre-Trained Transformer), das auf Basis dem Gehirn nachempfundener neuronaler Netze Texteingaben verstehen und erzeugen kann. Es ist ein „Large Language Model“ (LLM) und in seiner neuesten Version – weil diese auch multimediale Inhalte wie Fotos verarbeiten kann – sogar ein „Multimodal Large Language Model“ (MLLM), die beide nach dem Prinzip des bestärkenden Lernens arbeiten, also über positive und negative Feedbacks hinzulernen. Zu Beginn kommen diese Feedbacks in der Regel von Menschen – auf der höchsten Stufe optimiert sich die KI dann selbst.

Genau dies ist einer der Hauptkritikpunkte an KI. Im März 2023 warnten mehr als 1.000 Expertinnen und Experten aus dem Silicon Valley in einem offenen Brief des gemeinnützigen Future of Life Institute vor „tiefgreifenden Risiken für Gesellschaft und Menschheit“ durch einen unregulierten KI-Einsatz. Schon Joseph Weizenbaum war der Meinung, dass die Entscheidungsgewalt bei künstlicher Intelligenz immer in menschlicher Hand bleiben müsse.

Aktuelle Marktkommentare erhalten Sie im täglichen Newsletter „PERSPEKTIVEN am Morgen“.

Redaktionsschluss: 30. Juni 2023, 15 Uhr