EIG029 chatGPT 2

avatar
Thomas Kahle

Im zweiten Teil zu chatGPT (Teil 1 ist EIG018) mache ich mir Gedanken um die Sprachfähigkeiten von chatGPT, die mir als unabhängig von den kognitiven Fähigkeiten vorkommen. Wir benutzen aber Sprachfähigkeiten extensiv in Tests auf kognitive Fähigkeiten, weil sie vor chatGPT ein Abbild davon waren. All diese Tests (die vom Abi bis zur Psychologie eingesetzt werden!), funktionieren jetzt nicht mehr.

Hier nochmal alle sozialen Kanäle des Eigenraums:

 

Feedback gerne auf Mastodon @Eigenraum@podcasts.social, an feedback (bei) eigenpod.de oder in die Kommentarspalte auf der Episodenseite.

Verwandte Folge:

Automatisch generiertes Transkript (nicht geprüft)
6, 3, 6, 0, 7, 6, 2, 8.
Podcast sich auch schön entwickelt hat und ich habe auch noch ganz viel vor im neuen Jahr.
Danke euch fürs Hören bisher und mal sehen, was da noch so kommt.
So, was gibt es an Hausmitteilungen? Ich habe neulich teilgenommen an einem
sehr schönen Hörsaalslam von Ingenieure ohne Grenzen in Magdeburg und da kam
die empirische Münzworfforschung, die ich mit Claudia ja besprochen hatte, nochmal als Slam vor.
Davon sollte es auch irgendwie noch ein Video geben, aber irgendwie habe ich
das noch nicht auf YouTube entdeckt. Es müsste noch kommen und dann verlinke
ich euch das nochmal mal.
Ja, und wie ihr dem Titel der Folge schon entnehmen könnt, will ich heute noch mal über KI reden.
Es geht noch mal um Chat-GBT. Das Thema lässt uns ja irgendwie nicht los.
Und ich habe auch im Dezember an der Uni hier an einer interessanten Podiumsdiskussion
teilgenommen, weil ja auch irgendwie die Uni jetzt auf solche Entwicklungen
wie Large Language Models und Chat-GBT irgendwie reagieren muss.
Und sie zeichnet sich ja in manchen Händen sich durch eine gewisse Langsamkeit
aus und fängt jetzt an, sagen wir mal, auf die Entwicklung ChatGPT zu reagieren.
Also ein konkreter Anlass dieser Diskussion war zum Beispiel,
dass es jetzt Abschlussarbeiten gibt, die eingereicht werden,
auch Promotionsschriften sogar, wo, sagen wir mal, offensichtlich Teile mit
ChatGPT geschrieben sind oder zumindest formuliert wurden.
Und da gibt es eigentlich überhaupt keine Regeln dafür, die das irgendwie verbieten würden.
Und jetzt gibt es da so ganz unterschiedliche Reaktionen in so einer Uni von,
oh mein Gott, das ist alles Betrug, zu, ja, das ist doch eigentlich gar nichts.
Und ja, fragt man sich natürlich, ob man jetzt so eine Studien- oder Promotionsordnung
ändern soll, aber das kann ich euch aus Innenperspektive sagen,
dass das ein langwieriger Prozess ist.
Also im Vorfeld dieser Diskussion hatte ich mir jedenfalls nochmal so ein bisschen
Gedanken gemacht über Chachibiti und ist ja jetzt auch schon einige Zeit ins
Land gegangen seit der Folge darüber.
Und ja, also da will ich heute nochmal ein bisschen darüber reden,
was sich da für Herausforderungen ergeben im Uni-Kontext.
Also wie jede und jeder weiß, die Chachibiti mal benutzt haben,
sind die Sprachfähigkeiten von dem Ding ja extrem gut.
Gut, das muss man auch mal würdigen, dass da ein Problem, was die Linguistik
vielleicht 50 bis 70 Jahre beschäftigt hat, jetzt als gelöst gelten kann.
Also dieser Wunsch nach automatischer Übersetzung zum Beispiel,
das kann das Ding ja routinemäßig machen.
Also man kann eine Konversation einfach in einer anderen Sprache fortsetzen.
Ich weiß nicht, ob ihr das mal probiert habt.
Und dieser Wunsch nach automatischer Übersetzung, der entstand wahrscheinlich
irgendwie im Kalten Krieg, weil man diese ganzen russischen Dokumente,
die man irgendwie hatte, lesen und übersetzen wollte.
Und dann ging man da erstmal davon aus, dass man das so wie Programmieren lösen kann.
Also einfach die Grammatiken alle aufschreiben, Vokabellisten anlegen und fertig
ist die automatische Übersetzung. Also funktioniert wie so eine Programmiersprache.
Aber irgendwie ist es nicht so einfach wie gedacht.
Man hatte ja auch irgendwie gedacht, dass Computer Go und Schach spielen können,
wenn man denen die Regeln beibringt und wie Menschen denken und dann denken
die einfach schneller so wie Menschen und schon ist das Go oder Schach gelöst.
Und das hat aber auch in den 50ern nicht so was gebracht.
Also okay, Schach wurde jetzt nicht durch Deep Learning gelöst, aber Go.
Also da gab es zwar erste Erfolge mit so Markov Chain Monte Carlo Algorithmen,
aber dann im Prinzip AlphaGo war die Lösung des Go-Spiels.
Darüber gibt es übrigens eine schöne Doku, die lief damals, glaube ich,
auf Netflix. Die heißt einfach nur AlphaGo, die Dokumentation oder so.
Gibt es jetzt, glaube ich, auf YouTube. Kann ich ja mal verlinken.
Also das ist auf jeden Fall eine Guck-Empfehlung.
Und ja, erstaunlich, wie lang einem das schon wieder herkommt.
Also diese Go-Erfolge, die erscheinen einem jetzt vielleicht gar nicht mehr
so besonders, nachdem man sieht, was so Methoden des maschinellen Lernens jetzt hervorbringen.
Aber, naja, kann man mal so ein bisschen zurückreisen in der Zeit.
Aber für Sprache, also das sagt Tim Brittloff, sagt das ja immer,
dass der Babelfisch aus Per Anhalter durch die Galaxis, der existiert jetzt
in Form von diesem Chachipiti und das ist wirklich erstaunlich.
Und das erstreckt sich ja nicht nur auf Übersetzung von Deutsch auf Polnisch,
sondern eben auch von Polnisch dann auf Python oder von Haskell auf Chinesisch oder so.
Also man kann irgendwie so kleine Stücken Algorithmen, fertig programmierten
Quelltext in JGPT reingeben und sich dann da auf Deutsch darüber unterhalten,
was das eben tut, das Programm.
Also der analysiert auch den Inhalt von Programmen und das ist ja eine Übersetzungsaufgabe,
die so für Menschen schon möglich ist mit viel Erfahrung,
aber jedenfalls nicht in der Geschwindigkeit, würde ich jetzt mal behaupten.
Was dann noch dazu kommt als eine typische Sprachfähigkeit ist diesen Kontext
einer Konversation, also ChatGPT macht einen Chat.
Es gab ja vorher schon Spracheingabe und Sprachausgabe, also wenn wir hier an
diese Sprachassistenten denken wie Siri und Alexa, aber die kamen einem...
Nie intelligent vor, oder? Also ich glaube nicht, dass irgendjemand die intelligent
vorkam, weil es da eben keinen Kontext gab oder gibt.
Das hat sicher damit zu tun, also die Konversation besteht immer nur aus einer
Anfrage und einer Antwort und dann beginnt man wieder von vorne.
Also wer kennt es nicht, man sagt irgendwas, spiele diesen und diesen Titel
und es spielt einen anderen Titel und dann sagt man, nein,
ich wollte den ursprünglichen Titel und dann sagt er irgendwie,
ja, ich habe deine Websuche jetzt gestartet oder so, weil der Kontext von dem
vorigen Anfrage nicht mehr da war.
Aber, also Chachapedia hat jetzt irgendwie eine extrem gute Sprachverarbeitung
mit Kontext und das kann zum Problem werden.
Und was ich mir da so ein bisschen herausgearbeitet habe oder was sich herausgebildet
hat, ist, dass wir Menschen korrekte Sprache als Abbild von Intelligenz und
noch ganz anderen Sachen benutzen.
Also wenn wir irgendwas testen wollen, machen wir das eigentlich immer mit Sprache.
Sprache ist unser Universalwerkzeug, um irgendwas abzubilden,
was in unserem Kopf passiert.
Intelligenztests können wir zum Beispiel mal nehmen, die basieren darauf,
irgendwie verschiedene Kontexte von Bedeutung zu reflektieren und den richtigen zu finden.
Und am Ende muss man immer irgendwas aufschreiben oder irgendwas auswählen oder
eine Zahlenfolge fortsetzen.
Also irgendeine formale Sprache wie Mathematik oder einfach die deutsche Sprache
benutzen, um das auszudrücken. Also das Ergebnis des Tests wird in Sprache ausgedrückt.
Da kann man natürlich auch zum Beispiel mal an den Test aller Tests denken, das Abi.
Das Abi ist ein riesen Aufsatz. Also selbst in Mathe produziert man Sprache,
aber sagen wir mal im Deutsch-Abi oder so, da hat man einen Aufsatz zu schreiben
und man produziert hauptsächlich Sprache. Also es soll irgendwas anderes abgetestet werden.
Kann die Person das Gedicht interpretieren? Kann die verstehen,
was in der Parabel vorkommt?
Was die Autorin sich dabei gedacht hat und getestet wird? Eigentlich kann sie
eine Sprache produzieren.
Die das aussagt. Eine Sprache, die ein Abbild davon ist, dass sie diese Fähigkeit hat.
Das ist jetzt bei den MINT-Fächern nicht gerade so, aber es gibt auch da solche Ansätze.
Habt ihr euch mal gefragt, wozu der Antwortsatz bei Mathematikaufgaben gut ist?
Also ich meine, viele finden den
Antwortsatz Schwachsinn und ich finde den Antwortsatz auch Schwachsinn.
Aber mit dem Antwortsatz wird nochmal überprüft, ob man das,
was man technisch-analytisch herausbekommen hat, nochmal in Sprache übersetzen kann.
Das heißt, absichtlich wird die Bewertung vom Verständnis dieser eigentlich
mathematischen, technischen, rechnerischen Aufgabe verschoben hin zur Produktion von korrekter Sprache.
Also um wieder ein Abbild in Sprache zu schaffen. Noch krasser kann es in der Psychologie werden.
Da versucht man ja, kognitive Fähigkeiten abzutesten.
Und die Tests, die dafür designt werden, die benutzen natürlich Sprache.
Zum Beispiel gibt es irgendwie dieses Concept Theory of Mind.
Also soweit ich das mit meinen naiven Kenntnissen verstanden habe,
ist es die Fähigkeit, sich in andere hineinzuversetzen.
Also braucht man zum Beispiel, um zu lügen und zu betrügen, da muss man sich
ein Bild darüber machen, wie jemand anders denkt, welche Informationen die andere
Person zur Verfügung hat, um sie dann reinlegen zu können.
Kann die das verstehen, dass ich sie hier hintergehe oder fehlt dazu Information?
Und da gibt es eben so Tests auf Theory of Mind, ob zum Beispiel ein Kind oder
eine Person oder ein Tier oder irgendwas diese Theory of Mind hat.
Und ich bin da in der Folge von dem Podcast achwas.fm drauf gestoßen.
Verlinke ich euch auch mal.
Da wurde diskutiert, dass ChatGPT so ungefähr die Theory of Mind eines Neunjährigen nachweisen kann.
Also da werden so Testfragen gestellt und aus dem Ergebnis wird geschlossen,
wie weit diese Theory of Mind entwickelt ist, also ob ChatGPT sich sozusagen
in andere hineinversetzen kann.
Und diese Tests basieren auf irgendwelcher Sprachinteraktion.
Das heißt, JGPD bekommt dann diesen Fragebogen, muss darauf antworten und daraus wird dann geschlossen.
Also ich habe da gravierende Zweifel daran, aber dazu kommen wir gleich.
Was wir jetzt zusammenfassen können, ist, dass oft, um etwas anderes abzutesten,
die Produktion von korrekter Sprache als Proxy, als Stellvertreter für die Produktion
von Inhalt benutzt wird.
Weil wir nur durch die Produktion von Sprache ein Abbild davon haben,
dass das da ist, was wir testen wollen.
Wenn es jetzt aber möglich ist, die Sprache zu produzieren, ohne dass die entsprechende
Intelligenzfähigkeit da ist, dann funktioniert der Test nicht mehr, hat er keine Power mehr.
Vereinfacht gesagt, nur weil die Rechtschreibung und die Satzstellung stimmen,
muss der Inhalt noch nicht gut sein. Nein.
Das erinnert mich an so eine Anekdote aus meinem Physikstudium.
Da macht man so ein Praktikum und in dem Praktikum muss man so ein Praktikumsbuch führen.
Da beschreibt man seine Experimente, was man gemessen hat, wie man es analysiert hat und so weiter.
Und der Praktikumsbetreuer im Physikstudium, der wollte immer,
dass diese Bücher, dass die handgeschrieben sind, der wollte keine schön mit
Latex gesetzten Berichte fürs Praktikum.
Und seine These ist, was man im Latex schreibt, das sieht immer so gut aus,
egal ob da großer Quatsch drin ist oder das Richtige.
Naja, das ist ein Quatschargument, weil ein super toll handgeschriebenes Praktikumsbuch,
was richtig schick aussieht, kann auch Quatsch drin haben.
Aber irgendwie wollte er trotzdem diese Handschrift oder die Gründlichkeit oder
die Sauberkeit der Handschrift mit bewerten.
Und ob man jetzt mit unordentlicher Schrift schlechten Inhalt immer assoziieren
kann, da wird es sicherlich eine Korrelation geben, weil eine gewisse Unordentlichkeit
in der Schrift vielleicht auch irgendwie korreliert ist mit einer gewissen Unordentlichkeit
im Durchführung des Experiments.
Aber man sieht so einen typischen Proxyeffekt. Also da wird irgendwas bewertet,
was eigentlich mit der eigentlichen Sache, die erlernt werden soll, nichts zu tun hat.
Es sei denn, man erhebt jetzt dieses Führen eines handschriftlichen Praktikumsbuchs
zu einer Kernkompetenz, die im Studium erlernt werden soll.
Aber das wäre natürlich etwas rückwärtsgewandt, würde ich mal sagen.
Also auf jeden Fall ist da was dran, dass es für die Menschen lange keine Trennung
oder keine klare Trennung von korrekter Sprache und korrektem Inhalt gab.
Die Korrelation von die Sprache ist gut, wenn der Inhalt gut ist,
die ist einfach so stark, dass wir als Menschen das in allen möglichen Bewertungen
immer ausgenutzt haben.
Wenn es Korrelationen in der Welt gibt, dann nutzt unser Gehirn das auch als
Abkürzung, um sich das Leben einfacher zu machen.
Und das ist eine Kulturtechnik und die ist wirklich weit verbreitet.
Korrelationen und Kausationen werden natürlich jetzt auch völlig ignoriert.
Ja, also es gibt zum Beispiel in China die Tradition oder ich,
naja, das ist so ein bisschen Halbwissen, was ich habe, aber ich habe mal gehört,
dass man da die Kenntnis von vielen von den chinesischen Schriftzeichen,
Zehntausenden oder so, als Eingangsprüfung für die Uni ablegen muss.
Und da sind auch Dutzende, also Dutzende, Tausende dabei, die gar nicht mehr
verwendet werden, also außer in irgendwelchen historischen Texten,
die man aber jetzt bei einem Mathematikstudium nicht unbedingt braucht.
Und die notwendige Bedingung, diese Zeichen zu kennen, ist eigentlich eine Sprachkompetenz,
die verlangt wird, einfach als Zeichen.
Zugangsvoraussetzungen zur höheren Bildung. Natürlich ist das korreliert.
Wer diese Sprachkompetenz nachweisen kann, ist meistens auch erfolgreich in diesem Studium.
Aber das liegt wahrscheinlich an irgendwelchen Common Courses und nicht an der Sprachkompetenz.
Wenn wir mal ein bisschen auf Mathematik schauen. Ich glaube,
ich habe das in der ersten Folge zu ChatGBD auch schon erwähnt.
Da gibt es Terry Tao, den Fields-Metallisten. Der hat Kontakte mit Microsoft
und hat da so ein Essay geschrieben, nachdem er JetGBD 4 zum ersten Mal benutzt hat.
Und in dem schreibt er auch schon, dass, ich sag mal auf Englisch,
both humans and AI need to develop the skills to analyze this new type of text.
Also sowohl Menschen als auch KIs müssen neue Fähigkeiten entwickeln,
um diesen KI-generierten Text zu analysieren. Vor allem jetzt im Kontext von Mathematik.
Die stilistischen Signale, auf die er sich typischerweise verlässt,
um ein falsches Argument zu finden, die sind nicht mehr nützlich mit LLM erzeugter
Mathematik, mit Chat-GBT erzeugter Mathematik.
Nur sorgfältiges Prüfen, Zeile für Zeile, schreibt er, können Quatsch von Substanz unterscheiden.
Also er macht auch die Beobachtung, dass er für sich, wenn er vielleicht Übungsaufgaben
von Studierenden bewertet, die Qualität der Sprache benutzt.
Benutzt die Stylistic Signals, schreibt er auf Englisch, that I traditionally
rely on to smell out a hopelessly incorrect math argument.
Also er spricht von stilistischen Signalen, die auf falsche Mathematik hindeuten.
Und die kann er jetzt nicht mehr benutzen, wenn er den ChatGPT-Text analysiert,
weil es eben dort keine stilistischen Signale gibt.
Der Text ist perfekt, auch wenn der Inhalt nicht perfekt ist.
Man sieht einem Aufschrieb, der von Menschen gemacht ist, oft an der Sprache
an, ob die Argumente wahrscheinlich eher korrekt oder eher fishy sind.
Und das ist bei ChatGPT eben nicht mehr so.
ChatGPT kann Sprache imitieren, menschliche Sprache perfekt produzieren.
Programmiersprachen auch und auch die mathematische Fachsprache einigermaßen.
Und es kann eben ein Argument produzieren, was komplett richtig ausformuliert
ist und auch genau den richtigen Stil hat, wie in einer wissenschaftlichen Forschungsarbeit.
Genau die richtige Länge, genau das, was ausformuliert wird.
Aber eine Antwort ist es deswegen trotzdem noch lange nicht,
weil irgendwo in der Mitte ein Ungleichungszeichen falsch rum ist.
Und das Argument funktioniert nicht, weil irgendwo 0 größer 1 angenommen wird
oder sowas. So, also jetzt haben wir diese ganzen Tests wie der Theory of Mind
Test, das Abitur, die Übungsaufgaben in Mathe 1, die designt wurden.
Als man noch nicht daran denken konnte, dass es irgendwann eine Maschine gibt,
die Sprache produziert, die hohe Qualität hat, unabhängig von der Qualität des Inhalts.
Also war es einfach, diese Tests zu nehmen, weil die Sprache als Surrogat für
das, was man eigentlich abtesten will, geeignet war.
Und ChatGPT generiert nun aber zum Kontext perfekt passende Sprache,
ohne die zugrunde liegenden Fähigkeiten.
Und sowas gab es noch nicht. Und das ist der Game Changer. Und dadurch haben
die Tests, die wir benutzen, ihre Power verloren, mal statistisch gesprochen.
Also sie sind nicht mehr aussagekräftig. Es müssen irgendwie neue Tests erfunden
werden, die nicht die Produktion von perfekter Sprache als Abbild einer nicht
sprachlichen, kognitiven Fähigkeit benutzen. Und da können wir nochmal auf die
Theory of Mind zurückkommen.
Also mein Argument wäre jetzt, ChatGPT hat nicht die Theory of Mind eines Neunjährigen,
sondern der Test ist nicht mehr aussagekräftig.
Weil es ChatGPT gibt und weil ChatGPT die Produktion von Sprache perfektioniert
hat und uns imitieren kann,
wie wir Sprache produzieren und der Test nur die Sprache anschaut,
kommt der Test zu einem falschen Ergebnis. Der Test hat keine Aussagekraft mehr.
Nicht Chachibiti hat die Theory of Mind eines Neunjährigen, sondern der Test liegt jetzt falsch.
Der Test ist jetzt wertlos geworden, würde ich argumentieren.
Deswegen kann man auch keine Untergangsfantasien daraus ableiten.
Also ich kann die jedenfalls nicht teilen.
Jedenfalls sollte die darauf basieren, dass die Chachibiti jetzt irgendwie ein
Bewusstsein entwickelt.
Die Maschinen sich erheben und uns bekämpfen. Das glaube ich eher nicht.
Aber dass die Gesellschaft sich irgendwie fundamental verändert,
ist natürlich nicht ausgeschlossen.
Also es ist ein wirklicher Umbruch, dass diese Sprachmaschine da ist.
Die Herausforderungen für Prüfungen an der Uni sind sicherlich auch nicht zu
vernachlässigen. Für Abschlussarbeiten in der Mathematik bin ich vielleicht
jetzt noch ein bisschen entspannter, als ich sein sollte.
Was jetzt immer wieder so genannt wird, ist ja zum Beispiel eine Kennzeichnungspflicht
oder sogar ein Verbot von KI-Einsatz.
Ein Verbot. Ich weiß nicht, wie ein Verbot sich kontrollieren oder durchsetzen
lassen soll. Das halte ich ehrlich gesagt für hoffnungslos.
So ein Kennzeichnungspflicht, also irgendwie so ein hier KI drin,
KI-Insight-Sticker, da frage ich mich, was sollen die Konsequenzen davon sein?
Also ich kriege so eine Abschlussarbeit und da ist so ein KI-Insight-Sticker drauf.
Soll ich die jetzt strenger bewerten? Soll ich die jetzt nicht so nach der Sprachqualität
bewerten und nach dem Inhalt? Das sollte ich doch sowieso machen.
Darzustellen. Der Inhalt kann nur gut vermittelt werden, wenn die Sprachqualität
auch das hergibt. Aber da ist es ja vielleicht eine Hilfe.
Für Leute, die die Sprachqualität nicht beherrschen, weil sie vielleicht nicht
in ihrer Muttersprache schreiben und den Inhalt perfekt haben,
könnte das ja eine gute Hilfe sein.
Es könnte irgendwie das Chancengleichheit verbessern sogar.
Also so ein Made-with-KI-Sticker, ich weiß nicht, was die Konsequenzen davon wären.
Und außerdem denke ich, dass in ein bis zwei Jahren sowieso auf jeder Arbeit
so ein Sticker drauf sein würde. und bis wir unsere Promotionsordnung geändert
haben, dauert es auch zwei Jahre, also ist es auch wieder sinnlos.
Das ist so ein bisschen wie diese Schreibmaschinen-Promotion,
ja. Also warum sollen wir eine Arbeit anders behörden, weil sie jetzt mit dem
Computer geschrieben wird, statt Schreibmaschine?
Das ist nur diese Diskussion auf einem neuen Level.
So, das sind Arbeiten, das ist die Bildung. Natürlich gibt es immer Risiken, ja.
Es gibt Risiken, dass die Studierenden sich die Lernerfahrung nehmen,
aber was für Lernerfahrung könnten sie sich nehmen? Sie könnten einfach nicht
mehr lernen, vernünftig zu schreiben, weil ChatGPT das für sie übernimmt.
Das Ausformulieren von Sätzen. Wenn sie das nicht einüben, lernen sie das nicht.
Die Zeit können sie natürlich für was anderes nutzen. Und dann kann man sich
auch fragen, ist das noch eine Kompetenz, die wir in der Uni beibringen müssen?
Vernünftig ausformulieren. Oder ist das nur noch so eine Eitelkeit?
Ja, ich könnte es auch ohne ChatGPT.
Tja, das kann ich nicht beantworten. Also ich bilde mir auch noch ein bisschen
was drauf ein auf meine Formulierungskunst, aber naja, ich werde auch älter.
So, was bleibt für die Forschung? Für die Forschung kann das vielleicht auch sinnvoll sein.
Ich denke, man muss es am Ergebnis messen. Wenn ich jetzt einen guten Aufsatz
habe, der mit Chachi-Bitihilfe entstanden ist, dann ist er eben gut.
Und warum er gut ist, sollte ich halt weniger daran bewerten,
ob die Sprache gut ist, sondern mehr daran, ob da eine kreative Idee drin ist.
Und selbst wenn diese Kreativität die Idee von ChatGPT stammt,
warum nicht? Also was ist das Werkzeug?
Hätte ich vorher eine Idee anders bewertet, wenn sie am Strand oder in der Kneipe
entstanden ist, im Vergleich zu einer Idee, die nach langer,
langer, harter Arbeit und Ausprobieren an der Tafel entstanden ist?
Ich weiß es nicht, es kommt eigentlich auf die Idee an, oder?
Die Idee in Geschichte ist Historie der Mathematik.
Also Max Weber hat mal gesagt, der Einfall ersetzt nicht die Arbeit,
aber vielleicht ersetzt ChatGPT jetzt die Arbeit und wir brauchen dann nur noch den Einfall.
Tja, mal sehen. Also meine These ist, ChatGPT produziert Sprache in einer Qualität,
die eben getrennt ist von der Qualität des Inhalts und das ist wirklich neu.
Das ist der Game Changer und jetzt liegt es an uns, daraus irgendwie was zu
machen, was am Ende positiv für die Menschheit ist.
Und ja, deswegen benutze ich auch LLMs.
Ich habe auch schon versucht, welche zu trainieren oder zumindest die von Hackingface
herunterzuladen und werde das auch weiter tun.
Es wird sicher nicht die letzte Folge über KI gewesen sein.
Neulich habe ich zum Beispiel mal dieses speziell mathematische LLM namens LEMMA benutzt.
Und naja, meine ersten Erfahrungen waren noch so ein bisschen kurios.
Ich habe mir eine ganz einfache Aufgabe gestellt, zu beweisen,
dass eine durch vier teilbare Zahl durch zwei teilbar ist.
Und als Ausgabe kam da irgendwie so ein Forum, also so eine wörtliche Zitation
von einem Forumseintrag, in dem diese Frage diskutiert wurde,
aber auf einem, sagen wir mal, kuriosen Niveau.
Aber ja, also ich verliege euch mal den wissenschaftlichen Aufsatz dazu,
dann gibt es vielleicht noch einen anderen Eindruck und es könnte nur an meiner
Fehlbedienung gelegen haben. Ja.
So, also das war mein Take zu Sprache und Chat-GPT.
Ich hoffe, es bringt euch irgendwie auf Ideen und damit will ich das jetzt hier
auch mal so ein bisschen abbinden.
Freue mich, dass ihr so lange hier bei meinem kleinen Monolog heute dran geblieben
seid und ihr seid also jetzt hier Hardcore-Fans, also wenn ihr so lange dran
geblieben seid, dann heißt das,
dass es euch richtig interessiert, deswegen kann ich jetzt auch nochmal hier
so zum Ende auf alle sozialen Kanäle hinweisen, die verlinke ich euch auch nochmal.
Also ihr wisst natürlich, den Eigenraum gibt es auf Mastodon als eigenraum-at-podcasts.social.
Und jetzt neu könnt ihr unserer Webseite eigenpod.de auch direkt auf ActivityPub folgen.
Also ihr könnt mit eurem Mastodon-Client die Webseite per ActivityPub abonnieren
und werdet dann über neue Posts, das heißt neue Folgen, direkt informiert.
Und die postet unter eigenraum-at-eigen-pod.de mit Activity-Pub ihre neuen Folgen.
Das ist eher so ein technischer Account, also die postet einfach nur direkt
die neuen Folgen und da ist jetzt keine soziale Interaktion.
Also soziale Interaktion ist auf eigenraum.atpodcast.social,
da bin ich dann am Werk und gebe mich als der Podcast aus und bei dem anderen
kriegt er halt einfach die Folgen noch, könnte von Mastodon aus abonnieren oder
jedem anderen Fediverse-Dienst,
das wird jetzt mit dieser Folge zum ersten Mal passieren.
So, Instagram und Threads-Accounts sind ja in aller Munde, habe ich jetzt auch
mal angelegt, aber ich weiß auch nicht, ob meine Zielgruppe da unterwegs ist,
irgendwie fliegt das noch nicht.
Aber folgt gern dem Eigenraum unter at Eigenpod, mit D natürlich,
auf Instagram und oder Threads und wenn das mal mehr als vier Leute machen,
dann werde ich da vielleicht auch mal was posten.
Außerdem gibt es den Eigenraum auf Patreon. Also falls ihr uns ganz selbstlos
unterstützen wollt und euch zum Beispiel an Hostingkosten oder neuen mathematischen
Spielzeugen für mich oder Porto oder ähnlichen Sachen beteiligen wollt,
dann könnt ihr das machen durch einen freiwillbaren Betrag auf Patreon.
Müsst ihr natürlich nicht. Und ich bin euch schon dankbar, wenn ihr das hier hört.
Also am meisten freue ich mich, wenn ihr den Eigenraum weiterempfehlt,
wenn ihr die Folgen kommentiert.
Und ja, wenn ihr dafür Promomaterialien haben wollt,
dann könnt ihr mir einfach mal eine kleine DM oder eine E-Mail mit eurer Adresse
schicken und unser schönes Logo gibt es auch als Sticker für euren Laptop oder
als Karte und die kann ich euch auch zuschicken, wenn ich eure Adresse kenne.
So, das soll es mal gewesen sein. Genug der Werbung.
Wir hören uns im neuen Jahr mit neuen Geschichten aus der Mathematik.
Bis dahin. Schönen Dank fürs Hören. Macht's gut. Bis bald.

3 Anmerkung zu “EIG029 chatGPT 2

  1. Auguste Dupin

    Anmerkung zu Go und AlphaGo: Das Spiel ist noch sehr, sehr weit davon entfernt, „gelöst“ zu sein; was AlphaGo kann, ist, auf Weltklasseniveau und darüber zu spielen.

    Im Grunde besteht dieser Durchbruch (und das immer noch Erstaunliche) ja gerade darin, dass das gelang, ohne dass das Spiel vollständig gelöst worden wäre.

    Was gelöst ist, ist die sehr viel kleinere 5×5-Brett-Variante:
    http://erikvanderwerf.tengen.nl/5×5/5x5solved.html

    Von da bis zum 19×19-Brett dürfte es aber noch ein ziemlich langer Weg sein.

    (Analog zum Schach, das aktuell für bis zu sieben beliebigen Figuren vollständig gelöst ist. Eine mehr, und die Anzahl der möglichen Positionen explodiert. Das dauert wohl noch, bis die Ausgangsstellung mit 32 ausgerechnet ist.)

    Antworten
    1. Thomas Autor des Beitrags

      Ja, das stimmt. Spieltheoretisch „gelöst“, heißt ja wohl beim Go mindestens mal zu verstehen, was das Komi sein muss, damit Weiß immer gewinnt (und ob Schwarz ohne Komi auch eine Gewinnstrategie hat). Davon sind wir noch weit entfernt und das wird man mit ML auch nicht lösen können, oder?

      Den Spielbaum von Go „einfach ausrechnen“ kann man aber sowieso nicht. Laut Sensei’s Library gibt es ~2.082×10^170 Stellungen, aber die Anzahl der Atome im Universum ist wohl nur so 10^80. Das wird nie was.
      https://senseis.xmp.net/?NumberOfPossibleGoGames

      Antworten
      1. Auguste Dupin

        Jedenfalls nicht mit einem Taschenrechner.

        Ich bin mit diesem Zustand allerdings auch recht zufrieden. So sehr mich das reine Ergebnis interessieren würde („Bei optimalem Spiel gewinnt immer …“), finde ich die Ungewissheit dann doch reizvoller; sie macht aus meiner Sicht einen Teil der Magie aus.

        Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.