*räusper* das Wiederholen von Glaubenssätzen ändert an der Realität nichts...

Andudu, Mittwoch, 18.03.2026, 11:37 (vor 5 Stunden, 5 Minuten) @ paranoia301 Views
bearbeitet von Andudu, Mittwoch, 18.03.2026, 11:41

...schau dir doch um Himmels Willen mal die Argumentation im Video an, bevor du urteilst.

Hallo Andudu,

die Sammlung von Information und die themenübergreifende Verwendung von Information und das Ziehen von Schlüssen wären für mich Anforderung an AGI.

Belege der Unfähigkeit von KI sind für mich:

1. Der erste tödliche Tesla-Unfall, bei dem der Tesla seitlich in einen weißen LKW-Anhänger raste.

Die Selbstfahrfunktion kann keine (weiße) LKW-Anhänger erkennen - damit wurde nicht trainiert.

2. Das leicht manipulierte Stop-Schild, das den Tesla zum Gasgeben motivierte

Die Art und Weise des Erkennens eines Schilds. Eine unsicherer Mensch hätte immer gebremst, nicht Gas gegeben.

3. Der Schattenwurf, der eine unbeschattete weiße Linie auf die linke Spur einer Autobahn zauberte, die einen Tesla dazu bewegte, nach rechts auszweichen. Mit dem Ausweichmanöver überschritt der Tesla die Fahrspurgrenze nach rechts.

Wann war der Unfall, meinst du den von 2019? Zu dem es 2025 ein Urteil gab?

Mit Verlaub, das ist mittlerweile KI-Steinzeit.

=> kein Verständnis von Licht, der Geometrie einer Leitplanke und die Unterscheidung einer aufgebrachten weißen Begrenzungslinie von einem teilweisen Schattenwurf.

Und deshalb kann man von einer uralten Navigations-KI jetzt auf alle aktuellen KI verallgemeinern? Was soll das für eine Argumentation sein? Weil gestern etwas noch nicht (perfekt) funktionierte, heißt nicht, dass es das jetzt immer noch nicht tut. Ich habe auch nicht behauptet, dass bei einem Tesla eine AGI eingebaut wird oder jede KI eine AGI ist (es wird m.E. immer spezialisierte geben).


gesamter Thread:

RSS-Feed dieser Diskussion

Werbung