this post was submitted on 26 Sep 2024
22 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

1893 readers
295 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 3 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 6 points 1 week ago (2 children)

Fragwürdig.

Prinzipiell gute Idee, aber Umsetzung mit KI ist fragwürdig.

[–] [email protected] 3 points 1 week ago (2 children)

Eigentlich ist genau das so ziemlich das einzige, worin LLMs gut sind. Und so ganz ohne Infos über die Architektur dahinter kann man darüber aus meiner Sicht kein definites Urteil fällen.

[–] [email protected] 4 points 1 week ago (1 children)

Ich meine LLMs sind ziemlich unfähig, um Zitate, Sarkasmus und andere Formen zu erkennen, die Kontext brauchen.

Zum Filtern mag das geeignet sein, je nach Situation und Präferenz der Person. Wenn es darum geht, Prozesse gegen die mutmaßlichen Täter zu führen, wird wohl nichts daran vorbeigehen, dass klassisch von Menschen Kommentar für Kommentar auswerten zu lassen.

[–] [email protected] 2 points 1 week ago* (last edited 1 week ago)

Doch doch, das wird durchaus auch möglich sein, aber anders: Das Filtern darf nicht basierend auf den im Modell eingebetteten Informationen erfolgen, weil die möglicherweise zu Halluzinationen führen. Aber es gibt ja mittlerweile auch Wege, die Quellen sichtbar zu halten. Damit ginge das jedenfalls technisch auf jeden Fall.

LLMs sind ziemlich gut im Erschließen von Kontext, man muss eben einen Weg finden, ihnen diesen in endlicher Menge geschlossen zu geben.

EDIT: Ironie, während ich diesen Text über intelligente Modelle schrieb, war mein Handy pausenlos damit beschäftigt, Worte nachträglich zu verdrehen, entfernen und Substantive kleinzuschreiben.

[–] [email protected] 2 points 1 week ago

Ja fragwürdig ist ja kein Urteil, es ist einfach fragwürdig ob das funktioniert wie gewünscht, wie viel und was geblockt wird und wie mit dem Problem im allgemeinen verfahren wird.

[–] [email protected] -2 points 1 week ago

reboote mal dein windowsXP...