Ich finde Eure „Pausengespräche“ recht unterhaltsam und lerne auch immer mal was Neues. Heute habe ich aber auch mal eine Kritik loszuwerden. In der Folge zu ChatGPT verallgemeinert Ihr leider Eure ersten Erfahrungen mit den Anfängen der Large Language Models doch sehr nach dem Motto „Hab’s ausprobiert, taugt nix, brauch I net, schau ich mir auch nicht mehr weiter an“. Das wäre so, als hätte man damals zu den ersten Motorkutschen gesagt „Stinkt, holpert, kracht, das brauch I net“. Inzwischen hat sich bei LLMs einiges getan. Zum Beispiel werden Berechnungen nicht mehr durch LLMs selbst erledigt, sondern den LLMs werden Tools zur Verfügung gestellt (im Prinzip virtuelle Taschenrechner), die sie nach Bedarf einsetzen können, und die LLMs sind in der Lage Testdatensatzn, wann sie dies tun sollten, um Aufgaben zu lösen, für die sie selbst als reine Sprachmodelle nicht gut geeignet sind. Mittlerweile gibt es auch Systeme, die ausschließlich auf wirklich existierende Quellen verweisen, schaut Euch zum Beispiel mal „perplexity.ai“ an. Und wenn Programmiercode zurückgegeben wird, dann testen diese Systeme vorher auch, ob er wirklich läuft und das gewünschte Ergebnis liefern, zusammen mit einem Testdatensatz. Aus den ersten durchaus noch problematischen Erfahrungen diese Entwicklung für sich komplett abzulehnen, ist leider nicht hilfreich und zukunftsgewandt und birgt die Gefahr, den Anschluss an moderne Entwicklungen zu verpassen. Es gibt durchaus Risiken durch die KI, die liegen aber auf anderen Gebieten als auf den von Euch genannten, z.B. Untergrabung der Demokratien oder irgendwann vielleicht sogar die befürchtete „Singularity“, wo die KI den Menschen eher als Hindernis bei der Erreichung der ihr gesetzten Ziele sieht mit sich daraus ergebenden sehr unerfreulichen Konsequenzen für unsere Spezies… Also, mein Vorschlag: Schaut Euch doch noch mal an, was neuere Versionen von ChatGPT und Alternativen wie Claude 3.5 Sonnet oder auch übergeordnete Dienst wie Perplexity können, vielleicht revidiert Ihr dann ja Eure Meinung. Ich weiß nicht, was Eure Reichweite ist, aber klein ist sie wahrscheinlich nicht, was dann ja auch mit einer gewissen Verantwortung einhergeht. Und das sollte nicht dazu führen, dass Eure Hörerinnen und Hörer zum Schluss verleitet werden, KI taugt eh nix, „brauchen wir nicht“, und Entwicklungen dann komplett verschlafen werden. Abgesehen davon freue ich mich schon auf neue Folgen…