Ich finde das Sprachmodell ziemlich faszinierend. Also sowohl die Erkennung des Inputs, als auch das was daraus gemacht wird.
Spracheingabe und Erkennung kenne ich in der Art schon von DeepL, was ich für Übersetzungen nach wie vor bevorzuge. Aber DeepL antwortet nunmal nicht kontext bezogen. Das ist neu.
Was mich am meisten stört ist, dass ChatGPT keine Quellen angibt und sich so verhält, als sei es unfehlbar. Geschichten in die Art gibt es vielfältige. ChatGPT gibt auf die Frage, wieviel Einwohner auf dem Mars wohnen ein paar Milliarden an oder vertut sich in der aktuellen Jahreszahl. Im ersten Fall wurde die Information aus dem Fan-Wikipedia zur SciFi Welt von The Expanse genommen. Im zweiten Fall wurde ein falscher Schluss als Referenzzeitpunkt angenommen. Das sind jetzt relativ einfache Beispiele, die gut zu überprüfen sind. Aber wir müssen dahin kommen, dass unter der Ausgabe, vor allem bei Wissensfragen, die Quellen gelistet werden.
Das zweite Problem ist die Unfehlbarkeit. Wenn ich ChatGPT nach einer Ausgabe zu meinem beruflichen Fach frage, bekomme ich eine gut klingende Antwort und ChatGPT klingt immer sehr sicher. Beim Menschen würde man sagen, dass ChatGPT von seiner Antwort überzeugt ist. Als Fachkraft kann ich einschätzen, ob sie wirklich korrekt ist (Nicht Fachkräfte sind aufgeschmissen). Ist sie nicht korrekt kann ich korrigieren. Dann entschuldigt sich die KI. Das Problem ist, dass ChatGPT auch bei der nächsten Antwort überzeugt von sich ist. Man fragt sich, ob das die gleiche Überzeugung ist wie bei der ersten Antwort.
ChatGPT ist gezwugen auf eine Wissensfrage eine 'sichere' Antwort zu geben. Es gibt keine Abwägung, kein Zweifel, kein "ich weiß es nicht". So wird Personen des öffentlichen Lebens gerne mal Bücher angedichtet, die die Person nie geschrieben hat und die nicht mal existieren. Dafür kann es, im Gegenteil zu oben, gar keine Quellen geben. ChatGPT 'lügt' - oder besser - kann nicht entscheiden, ob ich einen Fakt will oder eine fiktionale Antwort und hilft mir vor allem bei ersterem nicht die Antwort einzuordnen. Das ist kontext Bezogen wirklich schlecht, weil ich es als User nicht forcieren kann.
Das halte ich beides für sehr schlecht, da wir sowieso schon das Problem haben, dass dem Internet und Technik im Allgemeinen zu viel Vertrauen geschenkt wird. Ich bin gespannt, wie sie in Zukunft erreichen, dass man den Aussagen von ChatGPT mehr vertrauen kann.
Das mit den Hausaufgaben ist natürlich ne spannende Sache. Genau so wie ich sehr gespannt bin, wie disruptiv KI am Arbeitsmarkt sein wird. Übersetzer, Grafikdesigner, Software-Entwickler, Support-Mitarbeiter, Autoren, Soundtechniker... Was kann die KI übernehmen?