this post was submitted on 20 Nov 2024
29 points (91.4% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2057 readers
284 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 5 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 11 points 4 days ago* (last edited 4 days ago) (1 children)

95% haben nicht mal annähernd eine realistische Vorstellung, was KI eigentlich ist und was sie kann oder auch nicht kann...

Demnach ist eine Umfrage auch relativ wertlos. Leute über das, was in ihrer Phantasie so abgeht, Auskunft geben lassen, hat nur sehr wenig Informationswert.

Davon abgesehen:

Die meisten Menschen labern Blödsinn, den sie irgendwo gehört oder gelesen haben, weil sie prüfen von Informationen oder Reflektieren nicht drauf haben. KI labert Blödsinn, den sie irgendwo gehört oder gelesen hat, weil die per Definition nicht Reflektieren kann und die Prüfung extern durch Menschen geschehen muss (also eher nur punktuell).

Das Ergebnis ist also relativ gleichwertig. Beim Menschen hab ich allerdings den Vorteil, dass der im Einzelfall lernfähig und korrigierbar sein könnte...

[–] [email protected] 2 points 3 days ago

Witzig, dass du schreibst, dass die meisten keine realistische Vorstellung von KI haben und dann im nächsten Absatz selbst falsche Aussagen darüber triffst.

"KI", in diesem Fall wohl LLMs, haben zwar keine integrierte Funktion zum Faktencheck, können aber über RAG, (externe) Knowledge Graphs und weiteres Tooling durchaus automatisch mit korrekten Fakten gefüttert werden. Reflexion ist mit LLMs ebenfalls möglich, wahlweise durch prompt patterns, oder, wie im Falle von o1, durch gezieltes fine-tuning hinsichtlich "Gedankenketten". Da die Generierung konditionell funktioniert, kann ein ausreichend komplexes und leistungsfähiges LLM also basierend auf vorherigen Beobachtungen und Korrekturen zu einem guten Ergebnis kommen.

Dass das nicht immer klappt, will ich nicht abstreiten - ich wage auch keine Prognose, ob es jemals 100% fehlerfrei klappen wird, aber die Technologie ist auch noch vergleichsweise jung und entwickelt sich zurzeit rasant.

P.S. bzgl lernfähig und korrigierbar: in-context learning, oben genannte RAG, Gedächtnis-Tools und ähnliche Erweiterungen erlauben durchaus auch kleinere Anpassungen ("lernen") ohne neues Training.