Warum ist chatgpt so blöd?
Ich habe ihn eine einfache Frage gestellt. Sind zwei 26cm Pizzen größer als eine 32cm Pizza. Er meinte die eine 32cm Pizza sei größer. Ich fragte wie viele Prozent er größer sei...
Er gab mir diese Antwort:
~~~
Um die prozentuale Differenz zu berechnen, können wir die Flächen beider Pizzen vergleichen:
Fläche der 32cm Pizza = π * (16)^2 ≈ 804,25 cm²
Fläche der 26cm Pizza = π * (13)^2 ≈ 530,66 cm²
Die Differenz beträgt ungefähr 804,25 - (2 * 530,66) ≈ 804,25 - 1061,32 ≈ -257,07 cm²
Da die Fläche der zwei 26cm Pizzen kleiner ist als die Fläche der 32cm Pizza, beträgt die prozentuale Differenz etwa:
(257,07 / 804,25) * 100 ≈ 31,96%
Also hat die 32cm Pizza ungefähr 31,96% mehr Fläche als die zwei 26cm Pizzen.
~~~
Danach meinte er auf einmal 51,74% sei sie größer und als ich ihm klar machte, dass zweimal 530cm² nicht größer als 804cm² sein kann, gab er mir Recht und meinte schließlich die große Pizza sei 24,25% kleiner als die zwei kleinen Pizzen.
Meine Frage: Wieso ist der so? Er entschuldigt sich andauernd und gibt mir falsche Antworten. Die Aufzählung und die Rechnung sind richtig und dann aber die Antwort falsch... Ich dachte chatgpt sei doch so fähig?
4 Antworten
Das ist so, weil Large-Language-Modeling, also das erstellen von Text basierten KI Modellen, etwas komplett anderes ist, als eine KI auf Mathematik zu trainieren.
ChatGPT denkt nicht selber, sondern nimmt Informationen von sehr vielen Quellen und berechnet anschließend die Wahrscheinlichkeit dafür, welches Wort als nächstes in der Antwort stehen muss. Daher bauen sich die Antworten von Text KIs auch von vorne nach hinten auf.
Für Mathematik muss ein KI Modell allerdings nicht von vorne nach hinten, sondern in alle Richtungen denken, um die Mathematische Gleichung ganz zu verstehen und Beziehungen zwischen verschiedenen Teilen der Gleichung zu erkennen.
Solange ChatGPT also keinen eigenen Mathematik teil im Code hat und anschließend auf komplexe Mathematik trainiert wurde, kann es auch keine guten Berechnungen durchführen.
Weil ChatGPT ein SPRACH-Modell ist und kein Mathe-Modell.
ChatGPT kann Sätze verstehen und Sätze generieren.
Rechnen kann es aber eben nicht.
Es ist eine Software die ihr wissen aus Tausenden Webseiten holen muss und diese dann irgendwie passend auf deine frage geben muss. Willst du eine Ausführliche Antwort, dann gib ChatGPT viele Infos womit ChatGPT besser weiß was du meinst.
Ich Benutze Aria (vom Prinzip her ChatGPT nur mit aktuellem wissen), ich habe keine Probleme solange ich meine Frage ausführlich stelle. Dazu steht auch nicht ohne Grund: "KI können falsche oder Irreführende Antworten geben".
Zurück zum problem: Mach die Antwort so ausführlich wie du kannst. Wenn die Antwort kurz sein soll oder ähnliches, sag es in der Nachricht.
Wenn du im Chat ein Themen Wechsel machst oder anfängst, ich sag jetzt mal irgendwie ChatGPT zu "verwirren" dann kommen häufiger Falsche Antworten aufeinmal im Chat
Weil das auch nur eine Software ist, die Programmiert werden muss.