hikaru hat geschrieben: 15.01.2024 09:44:41
heisenberg hat geschrieben: 14.01.2024 23:34:44
Ich meinte die Komplexität auf der Frageseite (Mensch), nicht auf der der Antwort ($LLM).
Das hatte ich tatsächlich missverstanden, ändert aber an meiner Antwort nichts. Eine komplexe Frage muss in ihrer Komplexität vom LLM auch korrekt erkannt werden, um eine qualitativ hochwertige Antwort liefern zu können. Komplex, also umfangreich und vielschichtig kann die Antwort unabhängig vom korrekten Verständnis sein. Der Fragende muss dann trotzdem bewerten, ob die Antwort korrekt ist, was genau die Kenntnisse voraussetzt die dem Fragenden fehlen.
LLMs liefern keine qualitativ hochwertigen Antworten. Sie können Fachbegriffe mit Erklärungen liefern, die falsch oder richtig sind. Diese Fachbegriffe sind wichtig, um den Zugang zu einem Thema zu bekommen und sich dann in anderen Quellen mit neuer Kenntnis dieser wichtigen Fachbegriffe gezielter annähern zu können. Ich finde es wichtig, gewisse Fachbegriffe und Konzepte zu einem Thema erst einmal zu bekommen, um dann genauer suchen zu können. Gerade wenn es um eher theoretisches Wissen geht, was man so direkt nicht überprüfen kann, dann ist Überprüfung anhand zusätzlicher Quellen natürlich besonders wichtig. Die Bewertung muss sich der Fragende also anhand anderer Quellen selbst erarbeiten. Hilfreiche Hinweise, nach was er suchen muss, bekommt er von den LLMs. Das kann er bis zu einem gewissen Grad auch alleine.
Im Kontext von Code und Konfigurationen liefern LLMs Ergebnisse, die richtig oder falsch sein können. Das kann man gut in einer Testumgebung ausprobieren und per Try-and-Error herauszufinden ob das geht. Im Idealfall hat man dann funktionierenden Code bzw. eine funktionierende Konfiguration. Das kann man sich dann genauer anschauen, sich weiter von den LLMs erklären lassen - was wiederrum falsch oder richtig sein kann - oder anhand der sonstigen Informationsquellen (man-pages, google, tutorials, ...) genauer zu verstehen versuchen bzw. gegenzuprüfen. Bei einfachen Elementen ist die Wahrscheinlichkeit sehr hoch, dass die Ergebnisse syntaktisch richtig sind. Ansonsten muss man auch bei einer technisch lauffähigen Konfiguration noch schauen, ob die Lösung nicht nur läuft, sondern auch das Gewünschte auch umsetzt. (Z. B. ist eine bestimmte verschlüsselung gefordert worden. Setzt die Konfig das auch um?).
Das Wichtigste für mich dabei ist, das man erst mal Code-/Konfigurationsfragmente hat, mit der man sich einem Konfigurations- oder Programmierthema erst einmal annähern kann. Die können genauso falsch oder richtig sein, wie das, was man sonst im Internet findet. Da finden sich auch Tutorials und Beispiele, die total nutzlos sind, weil sie einfach zu alt sind. Dann probiere ich die aus und merke, dass die Schrott sind. Wo ist der Unterschied zu dem, was mir die LLMs liefern? Ich finde die Ergebnisse von ChatGPT bislang deutlich hilfreicher. Hier kann man sich insgesamt auch als Laie sich selbständig einarbeiten.
heisenberg hat geschrieben: 14.01.2024 23:34:44
Naja. Mit der Kennzeichnung entfällt das. Da steht dann "KI" als Autor und dann kann ich mir aussuchen, ob ich das lesen will oder nicht.
Kann ich mir das wirklich aussuchen? Ich denke, diese "Kultur" müssten wir erst entwickeln, dass jemand der gekennzeichnet aber unkommentiert einen KI-Text postet nicht erwarten kann, dass seine Antwort zur Kenntnis genommen wird.
Meine Einwürfe werden hier und da nicht (mit schriftlicher Quittierung/Beantwortung) zur Kenntnis genommen. Das ist manchmal in der Tat unangenehm. Manchmal kommentiere ich das. Aber einen Anspruch darauf, dass jemand spezifische Antworten gut findet, sie tatsächlich umsetzt, versteht, verstehen will, kommentiert, ... sehe ich da nicht.
Und ich denke, wir müssten selbst die Kennzeichnung formalisieren, so dass eine KI-Antwort auf den ersten Blick als solche erkenntlich ist. Sonst kommt es zu Rickrolling.
Den Begriff Rickrolling musste ich erst recherchieren. Und auch danach kann ich noch nicht nachvollziehen, was Du ausdrücken möchtest. Kannst Du das nochmal erklären, ohne den Begriff Rickrolling zu benutzen?
Lohnt sich dafür möglicherweise ein eigener Quote-Tag? Falls ja, wie kriegen wir die Nutzer dazu, ihn konsequent zu nutzen?
Diesen Fragen würde ich mich widmen, sobald entschieden ist, was erwünscht und was unerwünscht ist.
Andererseits: Würde eine einfache und klare Kennzeichnung vielleicht sogar dazu verleiten, eigentlich unerwünschte unkommentierte KI-Antworten zu posten?
Auch mit der Diskussion darüber würde ich abwarten, bis klar ist und verkündet wurde, was denn jetzt genau unerwünscht ist. Hier sehe ich derzeit eine Tendenz diverser Meinungen, aber noch keine Entscheidung.
heisenberg hat geschrieben: 14.01.2024 23:34:44
Und ich würde sagen: Da ist für mich der springende Punkt: Eine Anfrage sehr präzise zu stellen, ist ein gewisser Aufwand und ist bei entsprechender Kompetenz des Fragenden IMHO wertvoll - auch als KI-Only-Beitrag.
Das DF ist ein technisches Forum. D.h., Fragen werden in erster Linie deshalb gestellt, weil der Fragende Kenntnisdefizite zum Thema hat. Eine präzise Anfrage zu stellen setzt aber genau diese Kenntnisse voraus.
Viele Fragen tauchen hier gar nicht auf, weil der Fragende sie sich bei der Aufarbeitung des Themas für einen guten Eingangsbeitrag bereits selbst beantwortet hat. Anfangs unpräzise Fragen werden oft im Verlauf eines Threads präzisiert - mit Hilfe von Usern, die die nötigen Kenntnisse zum Thema haben. Ich sehe nicht, wie KI-Antworten bei diesem Prozess helfen, denn das ist im Wesentlichen "Händchenhalten".
Ich erwarte grundsätzlich von jemandem, der um Unterstützung bittet ein gewisses Maß an Eigenengagement. Es gibt da für mich viele Ausnahmen und Gründe zur Nachsichtigkeit, was ich in dem einen oder anderen Fall ansetze. Aber normalerweise erwarte ich schon von jemandem, dass er sich mit dem Thema etwas auseinander gesetzt hat, d. h. sich Gedanken gemacht hat, Websuche verwendet hat und vielleicht auch eine LLM gefragt hat.
Ich würde da schon auch sagen, dass sich jeder in jegliche Themen einarbeiten kann, wobei nun einmal einiges leichter und anderes schwieriger ist. Fehlt diese Bereitschaft, sich Mühe zu geben, würde ich sagen, jegliche Beschäftigung mit solchen Fragen und Fragenden ist "Händchen halten". Und wenn ich schon Händchen halte, dann gemäß meines Bedürfnisses bitte zeitsparend.
D. h. für meinen Teil ist die Gabe einer unkommertieren LLM-Antwort auch die Prüfung des TE, ob er Willens ist sich für sein Anliegen zu engagieren, also zumindest mal einen Abschnitt von einem Text durchzulesen. Umso höher die positive Einschätzung des Anderen ist, umso mehr bin ich bereit, meine Zeit zu investieren.
Desweiteren stimme ich dem zu, dass wenn die Anfangs-Hürde des Engangements genommen ist, unkommentierte LLM-Beiträge eher wenig helfen.
Zu dem Vorgehen gibt es natürlich noch Alternativen. Z. B.
- Gar nicht antworten. (Nimmt dem TE die Chance doch noch auf den Aufruf zu Engagement zu reagieren).
- Idealerweise mittels Bot/Textbaustein nach 7-14 Tagen Nicht-Beantwortung eines Beitrages eine entsprechende Nachricht anzuhängen:
- Ist Deine Frage nicht präzise genug?
- Was hast Du getan, um das Problem selbst zu verstehen oder zu lösen?
- Was möchtest Du mit Deiner Frage erreichen? Was ist die Absicht oder der Zweck Deines Anliegens?
- Fehlen vielleicht Detailinformationen zu Deiner Umgebung?