AI macht Programmierende langsamer

Für allgemeine Fragen zur Programmierung, welche nicht! direkt mit Lazarus zu tun haben.
Benutzeravatar
m.fuchs
Lazarusforum e. V.
Beiträge: 2844
Registriert: Fr 22. Sep 2006, 19:32
OS, Lazarus, FPC: Winux (Lazarus 2.0.10, FPC 3.2.0)
CPU-Target: x86, x64, arm
Wohnort: Berlin
Kontaktdaten:

Re: AI macht Programmierende langsamer

Beitrag von m.fuchs »

Warf hat geschrieben: Fr 25. Jul 2025, 10:21 In wirklichkeit ist darin ist eine kleine Fee eingesperrt die einen würfel wirft und das Ergebnis des Wurfs rausgibt.
Ich finde dieses Beispiel sehr schön, denn das ist genau das was du und die anderen Hype-Anhänger denken. Das ist "voll magisch".

Wie gesagt, mit Wissenschaft hat alles nichts zu tun.
0118999881999119725-3

Software, Bibliotheken, Vorträge und mehr: https://www.ypa-software.de

Warf
Beiträge: 2179
Registriert: Di 23. Sep 2014, 17:46
OS, Lazarus, FPC: Win10 | Linux
CPU-Target: x86_64

Re: AI macht Programmierende langsamer

Beitrag von Warf »

m.fuchs hat geschrieben: Sa 26. Jul 2025, 11:26 Ich finde dieses Beispiel sehr schön, denn das ist genau das was du und die anderen Hype-Anhänger denken. Das ist "voll magisch".
Ich finde es schön wie du der Frage aus dem Weg gehst weil du ganz genau weißt das du einfach nur scheiße gelabert hast und jetzt nicht zurückrudern willst. Aber so einfach lass ich dich nicht vom Haken.

Ich stell die Frage nochmal ganz direkt, ohne Analogien oder sonstige Rhetorische Mittel:
Kann man die Statistische eines Probabilistischen Systems Objektiv Messen?
Einfache Ja/Nein Frage.

Wenn du dich weiterhin weigerst zu antworten gehe ich einfach davon aus das du dich ertappt fühlst und nicht zugeben kannst das du mit deinem statement:
Objektiv messbar ist da übrigens gar nichts, die Dinger sind nämlich nicht deterministisch.
Komplette scheiße gelabert hast

Warf
Beiträge: 2179
Registriert: Di 23. Sep 2014, 17:46
OS, Lazarus, FPC: Win10 | Linux
CPU-Target: x86_64

Re: AI macht Programmierende langsamer

Beitrag von Warf »

Niesi hat geschrieben: Fr 25. Jul 2025, 10:39 Da wird durch viele Würfe nicht genauer.
Es geht nicht darum das es genauer wird, es geht darum das die Aussage war das man bei einem nicht deterministischen system nichts objektiv messen kann. Und das ist falsch man kann den Erwartungswert, Durchschnitt, Standardabweichung und co objektiv messen.

Ich hab den Würfel nur als Beispiel angebracht weil es das einfachste probabilistischste System ist woran man das konzept wahrscheinlichkeit von ergebnissen messen erklären kann.
Wie gesagt es ging mir bei diesem Punkt rein um die Aussage das man angeblich keinerlei aussagen über probabilistische systeme machen kann, was einfach fundamental falsch ist

Das Beispiel mit den Probabilistischen Algorithmen wie dem Miller Rabin test war, wenn du dir den Post von mir Anschaust eine Antwort auf den Zweiten teil des Posts, wo gesagt wurde das wenn etwas nicht 100% funktioniert, es nutzlos ist um ein Problem zu lösen. Was auch objektiv falsch ist.

Es waren zwei beispiele für zwei punkte die Aufgebracht wurden, genauso wie dann später das Viagra Beispiel ein drittes Beispiel für einen Dritten punkt ist der Aufgebracht wurde, das etwas ausschließlich dafür nützlich ist wofür es entwickelt wurde.
Ich behaupte nicht das wenn man ganz viele würfel wirft man damit Erektionsprobleme behandeln kann. Das sind einfach Unabhängige Gegenbeispiele zu den Fundamental falschen Aussagen die hier getroffen wurden

Benutzeravatar
m.fuchs
Lazarusforum e. V.
Beiträge: 2844
Registriert: Fr 22. Sep 2006, 19:32
OS, Lazarus, FPC: Winux (Lazarus 2.0.10, FPC 3.2.0)
CPU-Target: x86, x64, arm
Wohnort: Berlin
Kontaktdaten:

Re: AI macht Programmierende langsamer

Beitrag von m.fuchs »

Warf hat geschrieben: Sa 26. Jul 2025, 11:39 Aussage war das man bei einem nicht deterministischen system nichts objektiv messen kann.
Nein, war die Aussage nicht. Lies noch einmal nach und versuche zu verstehen.
0118999881999119725-3

Software, Bibliotheken, Vorträge und mehr: https://www.ypa-software.de

Benutzeravatar
m.fuchs
Lazarusforum e. V.
Beiträge: 2844
Registriert: Fr 22. Sep 2006, 19:32
OS, Lazarus, FPC: Winux (Lazarus 2.0.10, FPC 3.2.0)
CPU-Target: x86, x64, arm
Wohnort: Berlin
Kontaktdaten:

Re: AI macht Programmierende langsamer

Beitrag von m.fuchs »

Warf hat geschrieben: Sa 26. Jul 2025, 11:34 Ich finde es schön wie du der Frage aus dem Weg gehst weil du ganz genau weißt das du einfach nur scheiße gelabert hast und jetzt nicht zurückrudern willst.
Kleiner, du erzählst hier ziemlich viel Unsinn und schwafelst irgendetwas von magischen Eigenschaften die Entstehen wenn man nur genug Daten irgendwo zusammen mengt.
Oder Logik die in einem LLM vorhanden sein soll.
Ist sie nicht, Punkt aus fertig.
Du glaubst das anscheinend weiterhin und willst auf dieser Basis diskutieren, aber das glauben nicht einmal die Erschaffer der LLM:
https://status.openai.com/incidents/ssg8fh7sfyz3 hat geschrieben:LLMs generate responses by randomly sampling words based in part on probabilities. Their “language” consists of numbers that map to tokens.
0118999881999119725-3

Software, Bibliotheken, Vorträge und mehr: https://www.ypa-software.de

Warf
Beiträge: 2179
Registriert: Di 23. Sep 2014, 17:46
OS, Lazarus, FPC: Win10 | Linux
CPU-Target: x86_64

Re: AI macht Programmierende langsamer

Beitrag von Warf »

m.fuchs hat geschrieben: Sa 26. Jul 2025, 12:11 Nein, war die Aussage nicht. Lies noch einmal nach und versuche zu verstehen.
Was soll dieser Satz bedeuten:
Objektiv messbar ist da übrigens gar nichts, die Dinger sind nämlich nicht deterministisch.
Außer das "gar nichts" "objektiv messbar" ist weil die dinger "nicht deterministisch" sind? Da gibt es Keinerlei interpretationsspielraum. Du behauptest das weil sie nicht deterministisch sind gibt es keine Eigenschaften die objektiv messbar sind.

Deine Worte nicht meine
m.fuchs hat geschrieben: Sa 26. Jul 2025, 12:18 Kleiner, du erzählst hier ziemlich viel Unsinn und schwafelst irgendetwas von magischen Eigenschaften die Entstehen wenn man nur genug Daten irgendwo zusammen mengt.
Ich rede nicht von magischen Eigenschaften, das ist ein Begriff den du mir in den Mund legen willst. Weißt du warum ich deine Sätze die ganze Zeit zitiere? Weil ich versuche dagegen zu argumentieren was du sagst. Du hingegen unterstellst mir einfach eine Position und argumentierst dann gegen diese Position, statt auf das einzugehen was ich tatsächlich sage.

Ich Rede von anfang an von einem Konzept aus der Akademischen Literatur, ein Phänomen das in objektiven Messugnen beobachtet wurde die von Wissenschaftlern durchgeführt und von anderen Repzliziert und z.T. auch kritisiert wurden (siehe Apple paper, die sind Sehr kritisch gegenüber den Benchmarks von OpenAI und co).

Jemand hat diese Eigenschaften bemerkt, wie das das Modell plötzlich sich auch in anderen Sprachen verbessert hat trotz reinem Englischsprachigen training, dann wurde ein Versuchsaufbau konstruiert um das zu messen und nach der Verifikation das das tatsächlich auch in kontrollierter Umgebung so passiert wurde dem Phänomen ein Name gegeben "Emerging Property". Erst kam die beobachtung dann die Erklärung, wie man das Wissenschaftlich halt so macht.

Wenn du das konzept von Versuchsaufbau und Statistischer Auswertung der Ergebnisse nicht verstehst kann dir niemand mehr helfen
Oder Logik die in einem LLM vorhanden sein soll.
Ist sie nicht, Punkt aus fertig.
Nette behauptung, warum gibt es dann Experimente die das Gegenteil zeigen? Wenn das ding keine Logik kann warum scoren die dann 80%+ auf Logik Benchmarks? Und ich rede hier von Benchmarks wie dem Apple paper die nicht teil des Trainingsdatesets war und bei denen die Parameter variiert wurden wie bei dem Apple papier von vorher.

Wenn Messungen nicht mit deiner Theorie zusammenpassen dann musst du deine Theorie anpassen. Das ist wissenschaft. Wenn du die Messungen invalidierst weil sie nicht in dein Weltbild passen ist das Dogmatismus
m.fuchs hat geschrieben: Sa 26. Jul 2025, 12:18 Du glaubst das anscheinend weiterhin und willst auf dieser Basis diskutieren, aber das glauben nicht einmal die Erschaffer der LLM:
https://status.openai.com/incidents/ssg8fh7sfyz3 hat geschrieben:LLMs generate responses by randomly sampling words based in part on probabilities. Their “language” consists of numbers that map to tokens.
Und das soll jetzt in wie fern ein Argument sein? Wie die Tokenization funktioniert und warum diese z.B. bei Mathematik an ihre limits kommt habe ich selbst schon vorher in diesem Thread erklärt.

Im gegensatz zu dir weiß ich wie die dinger Funktionieren, denn ich hab mir die Wissenschaftlichen Artikel dazu direkt durchgelesen und nicht nur irgendwelche Heise Artikel und Blog posts

PS: Du solltest das apple papier übrigens mal lesen, es geht eigentlich genau in die richtung die du versuchst zu argumentieren, undszwar das jemehr man die paramter variiert und z.B. red herrings einfügt desto schlechter performen die modelle und das sie inherent darauf limitiert sind was häufig in den Trainingsdaten vorkam
Nur im gegensatz zu dir Argumentieren die das auf basis von Wissenschaftlichen erkentnissen und wissen über das Thema nicht auf basis von Halbwissen und persönlicher Gefühlslage

Benutzeravatar
kralle
Lazarusforum e. V.
Beiträge: 1232
Registriert: Mi 17. Mär 2010, 14:50
OS, Lazarus, FPC: Manjaro Linux, Mint und Windows 10 ,Lazarus 4.99, FPC-Version: 3.3.1
CPU-Target: 64Bit
Wohnort: Bremerhaven
Kontaktdaten:

Re: AI macht Programmierende langsamer

Beitrag von kralle »

STOP

Ihr werdet unsachlich und fangt an persönlich zu werden und außerdem habt Ihr das Topic verlassen und seit bei einer Grundsatzdiskussion gelandet.
Ich schließe das Thema hier jetzt.

Gruß
Kralle
(Mod und Admin)
OS: MX Linux, Linux Mint und Windows 10
FPC-Version: 3.3.1 , Lazarus 3.99
+ Delphi XE7SP1

Gesperrt