m.fuchs hat geschrieben: Sa 26. Jul 2025, 12:11
Nein, war die Aussage nicht. Lies noch einmal nach und versuche zu verstehen.
Was soll dieser Satz bedeuten:
Objektiv messbar ist da übrigens gar nichts, die Dinger sind nämlich nicht deterministisch.
Außer das "gar nichts" "objektiv messbar" ist weil die dinger "nicht deterministisch" sind? Da gibt es Keinerlei interpretationsspielraum. Du behauptest das weil sie nicht deterministisch sind gibt es keine Eigenschaften die objektiv messbar sind.
Deine Worte nicht meine
m.fuchs hat geschrieben: Sa 26. Jul 2025, 12:18
Kleiner, du erzählst hier ziemlich viel Unsinn und schwafelst irgendetwas von magischen Eigenschaften die Entstehen wenn man nur genug Daten irgendwo zusammen mengt.
Ich rede nicht von magischen Eigenschaften, das ist ein Begriff den du mir in den Mund legen willst. Weißt du warum ich deine Sätze die ganze Zeit zitiere? Weil ich versuche dagegen zu argumentieren was du sagst. Du hingegen unterstellst mir einfach eine Position und argumentierst dann gegen diese Position, statt auf das einzugehen was ich tatsächlich sage.
Ich Rede von anfang an von einem Konzept aus der Akademischen Literatur, ein Phänomen das in objektiven Messugnen beobachtet wurde die von Wissenschaftlern durchgeführt und von anderen Repzliziert und z.T. auch kritisiert wurden (siehe Apple paper, die sind Sehr kritisch gegenüber den Benchmarks von OpenAI und co).
Jemand hat diese Eigenschaften bemerkt, wie das das Modell plötzlich sich auch in anderen Sprachen verbessert hat trotz reinem Englischsprachigen training, dann wurde ein Versuchsaufbau konstruiert um das zu messen und nach der Verifikation das das tatsächlich auch in kontrollierter Umgebung so passiert wurde dem Phänomen ein Name gegeben "Emerging Property". Erst kam die beobachtung dann die Erklärung, wie man das Wissenschaftlich halt so macht.
Wenn du das konzept von Versuchsaufbau und Statistischer Auswertung der Ergebnisse nicht verstehst kann dir niemand mehr helfen
Oder Logik die in einem LLM vorhanden sein soll.
Ist sie nicht, Punkt aus fertig.
Nette behauptung, warum gibt es dann Experimente die das Gegenteil zeigen? Wenn das ding keine Logik kann warum scoren die dann 80%+ auf Logik Benchmarks? Und ich rede hier von Benchmarks wie dem Apple paper die nicht teil des Trainingsdatesets war und bei denen die Parameter variiert wurden wie bei dem Apple papier von vorher.
Wenn Messungen nicht mit deiner Theorie zusammenpassen dann musst du deine Theorie anpassen. Das ist wissenschaft. Wenn du die Messungen invalidierst weil sie nicht in dein Weltbild passen ist das Dogmatismus
m.fuchs hat geschrieben: Sa 26. Jul 2025, 12:18
Du glaubst das anscheinend weiterhin und willst auf dieser Basis diskutieren, aber das glauben nicht einmal die Erschaffer der LLM:
Und das soll jetzt in wie fern ein Argument sein? Wie die Tokenization funktioniert und warum diese z.B. bei Mathematik an ihre limits kommt habe ich selbst schon vorher in diesem Thread erklärt.
Im gegensatz zu dir weiß ich wie die dinger Funktionieren, denn ich hab mir die Wissenschaftlichen Artikel dazu direkt durchgelesen und nicht nur irgendwelche Heise Artikel und Blog posts
PS: Du solltest das apple papier übrigens mal lesen, es geht eigentlich genau in die richtung die du versuchst zu argumentieren, undszwar das jemehr man die paramter variiert und z.B. red herrings einfügt desto schlechter performen die modelle und das sie inherent darauf limitiert sind was häufig in den Trainingsdaten vorkam
Nur im gegensatz zu dir Argumentieren die das auf basis von Wissenschaftlichen erkentnissen und wissen über das Thema nicht auf basis von Halbwissen und persönlicher Gefühlslage