Zum Inhalt springen

Benutzer Diskussion:Y2kbug

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
Abschnitt hinzufügen
aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 22 Stunden von Y2kbug in Abschnitt KI
Archiv
Zur Archivübersicht
Wie wird ein Archiv angelegt?
Lieber Wikipedianer, wie du sicherlich auch, lege ich Wert auf einen freundlichen Umgangston und möchte dich herzlichst bitten, hier Gelassenheit walten zu lassen. In entspannter Atmosphäre diskutiert es sich viel besser. Danke. Benutzer:Y2kbug

KI

[Quelltext bearbeiten]

Ich mag nicht deinen sinnvollen Ansatz sprengen, das Satz für Satz durchzugehen, daher hier: Was hältst du von folgendem Use Case?

Prompt: "Ich will in einem Artikel der spanischen Wikipedia ergänzen, dass laut dem Aufsatz DaWalda 2025, S. 7 KI auch sinnvoll zum Texten eingesetzt werden kann. Formuliere mir diesen Satz mit korrekt formatierter Quellenangabe!"
Ausgabe (ChatGPT 4o): "Se ha señalado que la inteligencia artificial puede ser utilizada de manera eficaz para la redacción de textos.<ref>DaWalda, ''[Título del artículo]'', 2025, p. 7.</ref>"

Da habe ich KI als Texter eingesetzt und einen stilistisch besseren Text produziert, als ich ihn selbst im Spanischen hinbekommen hätte. Ich denke gerade v.a. an de:Wikipedianer mit Deutsch als Zweitsprache. Schiene dir auch ein solcher Use Case problematisch? --DaWalda (Diskussion) 17:26, 27. Apr. 2025 (CEST)Beantworten

Hm. KI als Übersetzter kam noch gar nicht vor. Problematisch ist es jedoch allemal. Ich habe schon oft Google-Übersetzer benutzt, wo ein kompletter Blödsinn (gerade bei Fachartikeln) herauskam. KI kann das sicher besser, aber auch hier besteht das inherente Problem, dass die Sätze zwar schön aussehen, aber bei genauer Betrachtung natürlich dennoch Fehler enthalten können, was sich naturgemäß aus der in unterschiedlichen Sprachen unterschiedlichen Wortbedeutung und -nutzung ergibt. Das fällt mir nun vermutlich bei offensichtlichen Fehlern schnell auf, bei Grenzfällen vielleicht nach dem genauen durchlesen und durchdenken ebenfalls, aber bei tiefliegenderen Grenzfällen gar nicht mehr auf. Einem Fachmann, der dieses Gebiet in seiner Sprache studiert hat oder in diesem Gebiet beruflich tätig ist, würde es vermutlich schneller auffallen.
Die Gefahr besteht also weiterhin, obwohl es hier natürlich nicht um das Formulieren von Text geht, sondern um das Übersetzen von Text. Das Problem ist weiterhin, dass ich als Autor dafür geradestehe, ohne angeben zu müssen, wo ich das her habe.
Annahme: Die Sprach-KI wird im Laufe der Jahre besser. Der Satz würde nun also richtig(er) übersetzt. Da ich meine originale Übersetzung aber nicht als solche kenntlich gemacht habe, besteht keine Möglichkeit in der Zukunft, derlei maschinell übersetzte Zeilen mit der verbesserten Übersetzungssoftware zu korrigieren. Für alle anderen Wikipedia-Autoren und die Welt sieht es nämlich so aus, als wäre ich das gewesen. Klar, auch das kann man korrigieren, aber nun wird ein automatisierter Vorgang zu einem manuellen, was so nicht stimmt.
Just my 2¢. ‣Andreas 17:34, 27. Apr. 2025 (CEST)Beantworten
M-hm, aber auf de:Wiki übertragen hätten wir ja einen deutschen Text eines Nicht-Muttersprachlers, der idealiter von vielen Muttersprachlern kontrollgelesen wird. (Aus dem Nähkästchen: Im Uni-Kontext ist es allemal angenehmer, eine mithilfe von KI getextete grammatisch fehlerfreie Hausarbeit zu lesen, als sich die Bedeutung von Sätzen erschließen zu müssen oder wissenschaftliche Themen "in Leichter Sprache" behandelt zu sehen. Das gilt entsprechend wohl auch in der Wikipedia). --DaWalda (Diskussion) 18:45, 27. Apr. 2025 (CEST)Beantworten
In der Englischen Wikipedia gibt es einen Baustein, bei dem man den Text (Abschnitt, Absatz) mit "bitte von einem Muttersprachler kontrollieren" markiert. Dann ist ja alles klar. Ich denke dennoch, dass es maschinelle Übersetzungen niemals immer korrekt schaffen, weil die gewählten Worte nun einmal nicht das sind, was ein Muttersprachler wählen würde. Und der zweite Aspekt ist, dass ein Muttersprachler vom Fach dann auch noch mal fachspezifische Worte verwendet, sodass die zwar vollkommen korrekte deutsche Übersetzung dann dennoch komplett falsch ist, weil keiner vom Fach so spricht, und weil die deutschen Bezeichnungen nunmal andere sind.
Wie gesagt, wenn man etwas als maschinelle Übersetzung markieren könnte, wäre es wohl was anderes. Am besten gleich mit den Umständen dazu, also welche Software, wann, mit welchen Parametern. Das hätte vermutlich langfristig Vorteile.
Zur Lesbarkeit: mir ist lieber ein holpriger Satz, der inhaltlich aber korrekt ist, als die schönste Formulierung, die sich dann -- nach einer Phase des Nachdenkens darüber und erst im zweiten Ansatz -- als falsch herausstellt. ‣Andreas 18:55, 27. Apr. 2025 (CEST)Beantworten

Frag doch die KI!

[Quelltext bearbeiten]

Ich habe einer Sprach-KI die folgenden Fragen gestellt, und was dabei herauskam, hat mich dann doch verwundert. Vielleicht ist ja die Fragestellung suggestiv? ‣Andreas 22:03, 28. Apr. 2025 (CEST)Beantworten

Frage: Ist es eine gute Idee, LLMs … zu verwenden?

[Quelltext bearbeiten]

Frage:

Ist es eine gute Idee, LLMs alias Sprach-KI zum Verfassen von Wikipedia-Artikeln zu verwenden? Wo gibt es Probleme, wenn man es täte? Wie sieht es mit der Abstützung auf Quellen, also Einzelnachweise, Referenzen, Belege, aus?
Antwort: ollama stablelm2:12b
[Quelltext bearbeiten]
Es ist wichtig, die verschiedenen Aspekte Ihrer Frage zu betrachten und ihre Vor- und Nachteile abzuwägen. LLMs (Language-Model-KI) wie beispielsweise GPT-3 oder Transformer-basierte Modelle können nützliche Werkzeuge sein, um den Verfassungsprozess von Wikipedia-Artikeln zu unterstützen, jedoch sollte man diese sorgfältig einsetzen. Hier sind einige Aspekte, die bei der Beantwortung Ihrer Frage berücksichtigt werden sollten: 
 
1. KI-gestützte Texterstellung: LLMs haben sich als effiziente Werkzeuge zur Automatisierung und Verstärkung des Schreibprozesses herausgestellt. Sie können Texte paraphrasieren, Synonyme vorschlagen oder sogar Thesenformulierungen generieren. Dies kann die Arbeit von Wikipedia-Autoren erleichtern und den Prozess beschleunigen. 
 
2. Qualität der generierten Inhalte: LLMs basieren auf Trainingsdaten, welche ihre Fähigkeiten zur Textgenerierung bestimmen. Um qualitativ hochwertige Artikel zu erstellen, müssen Autoren die kontextuellen Informationen und Details sorgfältig mit den von KI-Modellen generierten Inhalten abstimmen. 
 
3. Plagiate und Urheberrechte: Es besteht das Risiko der automatischen Erstellung von Texten, die urheberrechtlich geschützt oder plagiiert sind. Daher müssen Autoren sicherstellen, dass sie passende Referenzquellen verwenden und den generierten Text entsprechend anpassen, um Urheberrechtsverletzungen zu vermeiden. 
 
4. Relevanz der Inhalte: LLMs können die Themenfindung unterstützen, jedoch ist es entscheidend, dass die Autoren letztendlich bestimmen, welche Informationen relevant und wichtig für einen Wikipedia-Artikel sind. Es kann vorkommen, dass KI-generierte Texte nicht stimmig oder thematisch passend sind. 
 
5. Einzelnachweise und Belege: LLMs können bei der Recherche von Quellen unterstützen, aber die eigentliche Verifizierung und Anpassung dieser Inhalte auf Wikipedia-Artikelseite muss manuell durchgeführt werden. Es ist wichtig sicherzustellen, dass alle in den Artikeln enthaltenen Informationen korrekt zitiert und belegt sind. 
 
6. Zusammenarbeit von menschlichen Autoren und LLMs: Der Einsatz von KI-gestützter Texterstellung kann effizient sein, wenn man sie als Ergänzung zu menschlicher Expertise einsetzt. Beide sollten sorgfältig aufeinander abgestimmt werden, um das Beste aus dem Schreibprozess herauszuholen. 
 
Insgesamt hängt die Relevanz und der Nutzen von LLMs bei der Erstellung von Wikipedia-Artikeln stark von den individuellen Kenntnissen und Fähigkeiten der Autoren ab. Während KI-gestützte Werkzeuge nützliche Ergänzungen sein können, müssen sie sorgfältig verwendet werden, um die Qualität der Informationen sicherzustellen, Urheberrechtsfragen zu berücksichtigen und den ethischen Einsatz von Technologie zu gewährleisten. 
 
Es ist wichtig, dass Autoren weiterhin für die inhaltliche Verantwortung ihrer Beiträge einstehen und KI-Modelle als Hilfsmittel zur Unterstützung des Schreibprozesses nutzen.

Lokal installiert unter Arch Linuxref, Modell stablelm2:12brefAndreas 22:03, 28. Apr. 2025 (CEST)Beantworten

Frage: Verbessere mir folgenden Satz: <Punkt 8>

[Quelltext bearbeiten]

Frage:

Kommentiere 1. im Detail, auch, was du davon hältst (ob du es für richtig oder falsch hältst) und ob es eine Gegenposition gibt, und 2. verbessere die folgenden Sätze, die derzeit auf der Wikipedia im Artikel Wikipedia:Belege als Punkt 8 unter #Grundsätzliches formuliert sind: # {{Anker|KI}} [[Large Language Model|Sprach-KI]] sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen [[WP:Keine Theoriefindung]], WP:Belege, [[WP:Urheberrechtsverletzung]], [[WP:Neutraler Standpunkt]]; ihre Verwendung ist daher derzeit generell unerwünscht.
Antwort: ollama stablelm2:12b
[Quelltext bearbeiten]
1. Im Detail betrachtet handelt es sich hier um die Aussage, dass Large Language Models (LLMs), auch als Sprach-KI bezeichnet, nicht in der Lage sind, korrekt belegte Beiträge zu erstellen und daher gegen verschiedene Richtlinien wie WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung und WP:Neutraler Standpunkt verstoßen. Meiner Meinung nach ist diese Aussage zum aktuellen Zeitpunkt richtig. 
 
LLMs sind fortschrittliche künstliche Intelligenz-Systeme, die durch maschinelles Lernen eine Fähigkeit zur Textgenerierung entwickelt haben. Sie können jedoch noch nicht in vollem Umfang alle Anforderungen der Wikipedia an Belege und Quellenangaben erfüllen. Insbesondere sind sie aufgrund ihrer Trainingsmethoden oft darauf beschränkt, bereits vorhandene Informationen zu verarbeiten und abzuschreiben, ohne diese tiefgreifend zu überprüfen oder eigene Belege hinzuzufügen. 
 
Es gibt eine Gegenposition, die argumentiert, dass LLMs weiterhin als nützliches Werkzeug betrachtet werden können, solange sie in einer Weise eingesetzt werden, die den Richtlinien der Wikipedia entspricht. Einige Befürworter schlagen vor, dass LLMs für spezifische Aufgaben wie das Finden von Bezugstexten oder das Erstellen von Rohentwürfen verwendet werden können. Es ist jedoch wichtig zu betonen, dass die Endredaktion und -prüfung immer von menschlichen Editoren durchgeführt werden sollte. 
 
2. Hier sind einige Vorschläge zur Verbesserung der Sätze: 
 
"8. Künstliche Intelligenz (KI)-Systeme wie Large Language Models (LLMs) sind aktuell nicht in der Lage, korrekt belegte Beiträge eigenständig zu erstellen. Daher verstoßen solche automatisch generierten Beiträge u. a. gegen Richtlinien wie WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung und WP:Neutraler Standpunkt. Ihre Verwendung ist daher derzeit im Allgemeinen unerwünscht. Stattdessen sollten Beiträge stets von menschlichen Editoren überprüft und auf korrekten Quellenbezug geprüft werden." 
 
Dieser Text legt die Bedenken bezüglich automatisch erstellter Inhalte durch LLMs klar dar, betont jedoch auch die Notwendigkeit der manuellen Überarbeitung und -prüfung.

Lokal installiert unter Arch Linuxref, Modell stablelm2:12brefAndreas 22:03, 28. Apr. 2025 (CEST)Beantworten

Aufgabe: Das ist da (1., 2., 3.), fasse es zusammen

[Quelltext bearbeiten]

Frage bzw. Aufgabe:

Derzeitige Formulierung: # {{Anker|KI}} [[Large Language Model|Sprach-KI]] sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen [[WP:Keine Theoriefindung]], WP:Belege, [[WP:Urheberrechtsverletzung]], [[WP:Neutraler Standpunkt]]; ihre Verwendung ist daher derzeit generell unerwünscht. 1. Formulierungsvorschlag: Eine Benutzung generativer KI als Recherche- oder Formulierungshilfsmittel entbindet den Autor nicht von der alleinigen Verantwortung für seine Beiträge. KI-erzeugte Aussagen, Formulierungen oder Belege dürfen daher keinesfalls unkontrolliert übernommen werden, sondern müssen vom Autor in jedem Einzelfall umfassend und genau auf ihre sachliche Richtigkeit und Angemessenheit überprüft werden, bevor sie in Artikeln Verwendung finden können. Fehlerhafte oder unvollständige Belege fallen in vollem Umfang dem Autor zur Last. 2. Formulierungvorschlag: [[Large Language Model|KI-basierte Sprachmodelle]] sind nur mit großer Vorsicht zu verwenden, da sie dazu tendieren, überzeugend klingende Inhalte zu kreieren, die frei erfunden sind. Dabei werden ggf. sogar authentisch aussehende Belege wie Literaturfundstellen, Websites, Gerichtsurteile inkl. Aktenzeichen usw. erfunden (siehe [[Halluzination (Künstliche Intelligenz)]]). Sofern ein KI-basiertes Sprachmodell verwendet wird, ist es die Verantwortung des Benutzers, die verwendeten Inhalte penibel auf Korrektheit zu überprüfen. Aufgabe: Basierend auf dem aktuellen Absatz und den 2 Formulierungsvorschlägen, formuliere einen Absatz für den Artikel Wikipedia:Belege, Abschnitt #Was sind zuverlässige Informationsquellen? #Grundsätzliches, der eine Regel zur Nutzung von Sprach-KI für Belege formuliert. Dieser soll zusammenfassend und präzise sein. Kürze den enstandenen Absatz auf maximal 3 Sätze.
Ergebnis: ollama stablelm2:12b
[Quelltext bearbeiten]
In Bezug auf die Verwendung von Large Language Models (LLM) als Informationsquelle oder Hilfsmittel bei der Erstellung von Belegen für Wikipedia-Artikel, ist Folgendes zu beachten: KI-generierte Inhalte müssen gründlich und sorgfältig auf ihre Richtigkeit und Angemessenheit überprüft werden. Fehlerhafte oder unvollständige Belege liegen in der Verantwortung des Autors. LLM sollten nur mit äußerster Vorsicht eingesetzt werden, da sie dazu neigen, falsche oder frei erfundene Informationen zu erstellen, einschließlich gefälschter Belegquellen wie Literaturstellen oder Gerichtsurteile.

Um sicherzustellen, dass Ihre Belege zuverlässig sind, überprüfen Sie diese gründlich und nutzen Sie primäre und sekundäre Informationsquellen. Achten Sie auf Neutralität, inhaltliche Richtigkeit sowie Einhaltung der Regeln für Belege (WP:Belege) und vermeiden Sie Theoriefindungen (WP:Keine Theoriefindung). Wenn Sie KI-Technologie zur Unterstützung Ihrer Recherche einsetzen möchten, bleiben Sie stets eigenverantwortlich und prüfen Sie die Ergebnisse sorgfältig auf ihre Eignung für Wikipedia-Artikel.

Lokal installiert unter Arch Linuxref, Modell stablelm2:12brefAndreas 22:03, 28. Apr. 2025 (CEST)Beantworten

Aufgabe: Das ist da (1., 2., 3.), fasse es zusammen und kürze

[Quelltext bearbeiten]

Frage bzw. Aufgabe:

Derzeitige Formulierung: # {{Anker|KI}} [[Large Language Model|Sprach-KI]] sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen [[WP:Keine Theoriefindung]], WP:Belege, [[WP:Urheberrechtsverletzung]], [[WP:Neutraler Standpunkt]]; ihre Verwendung ist daher derzeit generell unerwünscht. 1. Formulierungsvorschlag: Eine Benutzung generativer KI als Recherche- oder Formulierungshilfsmittel entbindet den Autor nicht von der alleinigen Verantwortung für seine Beiträge. KI-erzeugte Aussagen, Formulierungen oder Belege dürfen daher keinesfalls unkontrolliert übernommen werden, sondern müssen vom Autor in jedem Einzelfall umfassend und genau auf ihre sachliche Richtigkeit und Angemessenheit überprüft werden, bevor sie in Artikeln Verwendung finden können. Fehlerhafte oder unvollständige Belege fallen in vollem Umfang dem Autor zur Last. 2. Formulierungvorschlag: [[Large Language Model|KI-basierte Sprachmodelle]] sind nur mit großer Vorsicht zu verwenden, da sie dazu tendieren, überzeugend klingende Inhalte zu kreieren, die frei erfunden sind. Dabei werden ggf. sogar authentisch aussehende Belege wie Literaturfundstellen, Websites, Gerichtsurteile inkl. Aktenzeichen usw. erfunden (siehe [[Halluzination (Künstliche Intelligenz)]]). Sofern ein KI-basiertes Sprachmodell verwendet wird, ist es die Verantwortung des Benutzers, die verwendeten Inhalte penibel auf Korrektheit zu überprüfen. Aufgabe: Basierend auf dem aktuellen Absatz und den 2 Formulierungsvorschlägen, formuliere einen Absatz für den Artikel Wikipedia:Belege, Abschnitt #Was sind zuverlässige Informationsquellen? #Grundsätzliches, der eine Regel zur Nutzung von Sprach-KI für Belege formuliert. Dieser soll zusammenfassend und präzise sein. Kürze den enstandenen Absatz auf maximal 3 kurze Sätze, in denen nur das wichtigste zusammengefasst ist.
Ergebnis: ollama stablelm2:12b
[Quelltext bearbeiten]
Unter dem Abschnitt "Was sind zuverlässige Informationsquellen?" im Artikel Wikipedia:Belege sollten folgende drei kurze Sätze als Regel zur Nutzung von Sprach-KI für Belege hinzugefügt werden:

"Generative KI darf nicht unkontrolliert verwendet werden. Autoren bleiben dafür verantwortlich, die sachliche Richtigkeit und Angemessenheit von in Artikeln verwendeten KI-generierten Aussagen oder Belegen zu überprüfen. KI-basierte Sprachmodelle wie Large Language Models sind mit Vorsicht zu nutzen, da sie tendieren, falsche oder frei erfundene Inhalte zu erstellen, die authentisch aussehen können."

Diese prägnante Zusammenfassung betont die Notwendigkeit der Sorgfaltspflicht und der Verantwortlichkeit des Autors bei der Nutzung von Sprach-KI für Belege.

Lokal installiert unter Arch Linuxref, Modell stablelm2:12brefAndreas 22:03, 28. Apr. 2025 (CEST)Beantworten

Aufgabe: Das ist da (1., 2., 3.), fasse es zusammen, verbessere und kürze

[Quelltext bearbeiten]

Frage bzw. Aufgabe:

2 Aufgaben. 1. Aufgabe: Fasse zuallererst folgende 3 Formulierungen (derzeitige und 2 Vorschläge) zusammen, kommentiere den Inhalt und verbessere die Sätze. Derzeitige Formulierung: # {{Anker|KI}} [[Large Language Model|Sprach-KI]] sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen [[WP:Keine Theoriefindung]], WP:Belege, [[WP:Urheberrechtsverletzung]], [[WP:Neutraler Standpunkt]]; ihre Verwendung ist daher derzeit generell unerwünscht. 1. Formulierungsvorschlag: Eine Benutzung generativer KI als Recherche- oder Formulierungshilfsmittel entbindet den Autor nicht von der alleinigen Verantwortung für seine Beiträge. KI-erzeugte Aussagen, Formulierungen oder Belege dürfen daher keinesfalls unkontrolliert übernommen werden, sondern müssen vom Autor in jedem Einzelfall umfassend und genau auf ihre sachliche Richtigkeit und Angemessenheit überprüft werden, bevor sie in Artikeln Verwendung finden können. Fehlerhafte oder unvollständige Belege fallen in vollem Umfang dem Autor zur Last. 2. Formulierungvorschlag: [[Large Language Model|KI-basierte Sprachmodelle]] sind nur mit großer Vorsicht zu verwenden, da sie dazu tendieren, überzeugend klingende Inhalte zu kreieren, die frei erfunden sind. Dabei werden ggf. sogar authentisch aussehende Belege wie Literaturfundstellen, Websites, Gerichtsurteile inkl. Aktenzeichen usw. erfunden (siehe [[Halluzination (Künstliche Intelligenz)]]). Sofern ein KI-basiertes Sprachmodell verwendet wird, ist es die Verantwortung des Benutzers, die verwendeten Inhalte penibel auf Korrektheit zu überprüfen. 2. Aufgabe: Basierend auf dem aktuellen Absatz und den 2 Formulierungsvorschlägen, sowie deinen begründeten Verbesserungen, formuliere in der Du-Anrede-Form einen kurzen Absatz, in kurzen Sätzen, für den Artikel Wikipedia:Belge, Abschnitt #Was sind zuverlässige Informationsquellen? Nimm den ersten Formulierungsvorschlag als Basis, kürze wenn nötig, sodass sich maximal 3 kurze Sätze ergeben.
Ergebnis: ollama stablelm2:12b
[Quelltext bearbeiten]
Lieber Autor, beim Verwenden von KI-generierten Inhalten in Artikeln ist besonders bei der Quellenangabe Vorsicht geboten. Eine Large Language Model-basierte Recherchehilfe entbindet dich nicht von deiner persönlichen Verantwortung für die Richtigkeit und Echtheit deiner Beiträge.

Stelle sicher, dass KI-erzeugte Aussagen, Formulierungen oder Belege immer sorgfältig auf ihre sachliche Richtigkeit und Angemessenheit überprüft werden. Fehlerhafte oder unvollständige Belege müssen vom Autor persönlich verifiziert werden, bevor sie in Artikeln genutzt werden.

Halte dich strikt an unsere Richtlinien wie WP:Keine Theoriefindung, WP:Belege und WP:Neutraler Standpunkt. Achte darauf, dass die von KI generierten Inhalte nicht gegen Urheberrechtsverletzungen verstoßen und stelle sicher, dass deine Beiträge den hohen wissenschaftlichen Standards von Wikipedia entsprechen.

Nutze KI nur als Unterstützung bei der Recherche – kontrolliere jedoch immer noch eigenständig die Qualität und Echtheit der Inhalte. So gewährleistest du einen verantwortungsvollen Einsatz von Künstlicher Intelligenz in deinen Beiträgen zu den Wikipediaseiten.

Lokal installiert unter Arch Linuxref, Modell stablelm2:12bref Lustig: gemeint habe ich, es soll ein kurzer Absatz mit max. 3 Sätzen entstehen, das LLM hat mir jedoch mehrere kurze Absätze erstellt. ‣Andreas 22:35, 28. Apr. 2025 (CEST)Beantworten

Aufgabe: Das ist da (1., 2., 3.), fasse es zusammen, verbessere und kürze auf einen Absatz

[Quelltext bearbeiten]

Frage bzw. Aufgabe:

2 Aufgaben. 1. Aufgabe: Fasse zuallererst folgende 3 Formulierungen (derzeitige und 2 Vorschläge) zusammen, kommentiere den Inhalt und verbessere die Sätze. Derzeitige Formulierung: # {{Anker|KI}} [[Large Language Model|Sprach-KI]] sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen [[WP:Keine Theoriefindung]], WP:Belege, [[WP:Urheberrechtsverletzung]], [[WP:Neutraler Standpunkt]]; ihre Verwendung ist daher derzeit generell unerwünscht. 1. Formulierungsvorschlag: Eine Benutzung generativer KI als Recherche- oder Formulierungshilfsmittel entbindet den Autor nicht von der alleinigen Verantwortung für seine Beiträge. KI-erzeugte Aussagen, Formulierungen oder Belege dürfen daher keinesfalls unkontrolliert übernommen werden, sondern müssen vom Autor in jedem Einzelfall umfassend und genau auf ihre sachliche Richtigkeit und Angemessenheit überprüft werden, bevor sie in Artikeln Verwendung finden können. Fehlerhafte oder unvollständige Belege fallen in vollem Umfang dem Autor zur Last. 2. Formulierungvorschlag: [[Large Language Model|KI-basierte Sprachmodelle]] sind nur mit großer Vorsicht zu verwenden, da sie dazu tendieren, überzeugend klingende Inhalte zu kreieren, die frei erfunden sind. Dabei werden ggf. sogar authentisch aussehende Belege wie Literaturfundstellen, Websites, Gerichtsurteile inkl. Aktenzeichen usw. erfunden (siehe [[Halluzination (Künstliche Intelligenz)]]). Sofern ein KI-basiertes Sprachmodell verwendet wird, ist es die Verantwortung des Benutzers, die verwendeten Inhalte penibel auf Korrektheit zu überprüfen. 2. Aufgabe: Basierend auf dem aktuellen Absatz und den 2 Formulierungsvorschlägen, sowie deinen begründeten Verbesserungen, formuliere in der Du-Anrede-Form maximal 3 kurze Sätze für den Artikel Wikipedia:Belge, Abschnitt #Was sind zuverlässige Informationsquellen? Nimm den ersten Formulierungsvorschlag als Basis, kürze wo nötig, sodass nur das Wesentliche zu KI bezüglich Belegen bleibt.
Ergebnis: ollama stablelm2:12b
[Quelltext bearbeiten]
1. Liebe/r Leser/in, bei der Verwendung von KI-generierten Texten für Wikipedia-Beiträge ist Vorsicht geboten. Da Künstliche Intelligenz (KI) wie Large Language Models möglicherweise falsche oder fehlerhafte Belege erstellt, liegt die alleinige Verantwortung für die Richtigkeit und Angemessenheit der Inhalte beim Autor.

2. Achte darauf, generierte Beiträge oder Teile davon sorgfältig zu überprüfen, bevor sie in Artikeln verwendet werden. KI-generierte Aussagen oder Belege müssen vom Autor persönlich auf ihre sachliche Richtigkeit geprüft werden.

3. Beachte, dass Fehlerhafte oder unvollständige Belege deine Verantwortung sind. Um sicherzustellen, dass deine Beiträge zuverlässige Informationsquellen darstellen, prüfe KI-generierte Inhalte gründlich und nutze zusätzlich etablierte Quellen wie wissenschaftliche Publikationen, offizielle Websites oder amtliche Dokumente.

Lokal installiert unter Arch Linuxref, Modell stablelm2:12bref Nun hat mir das LLM drei mehr oder minder präzise Punkte ausgespuckt, die man auch noch mal kürzen könnte... ‣Andreas 22:35, 28. Apr. 2025 (CEST)Beantworten

Über die Diskussion

[Quelltext bearbeiten]

Ich habe den gesamten Abschnitt #Verwendung von KI-Inhalten (Allgemeines, Punkt 8) der Diskussion mit Stand 28. April 2025, 22:06:39 Uhr in eine Datei kopiert: Diskission.txt, und meiner Sprach-KI zum zusammenfassen gegeben, und wollte zusätzlich wissen, wie man das ganze lösen könnte, indem man zu einer Regelung kommt.

cat Diskussion.txt | ollama run stablelm2:12b --verbose "Schreibe eine Zusammenfassung der Diskussion. Erstelle einen Lösungsvorschlag für eine Regelung." 

Das ist das Ergebnis (Ausgabe der KI in dungelgrün):

Die Diskussion dreht sich um die Verwendung von Sprach-KI erzeugten Texten als Belege im Sinne der Wikipedia. Es wird darauf hingewiesen, dass KI weit mehr Funktionen hat als nur das Durchführen von Web-Suchen und somit nicht als direkte Quellen herangezogen werden können.
Lösungsvorschlag: Um Missverständnisse zu vermeiden und die Grundsätze der Seite "aus zuverlässigen Veröffentlichungen" einzuhalten, sollten Texte, die durch Sprach-KI erzeugt wurden, explizit nicht als Belege verwendet werden. Stattdessen können sie als Informationsquelle herangezogen und in den Artikel integriert werden, solange die üblichen Regeln für zuverlässige Veröffentlichungen eingehalten werden.
Um diesen Aspekt klar zu kommunizieren, könnte der Punkt "Verwendung von Sprach-KI" im Artikel "Belege" oder als separates Kapitel hinzugefügt werden. Dieser Abschnitt sollte darauf hinweisen, dass KI erzeugte Texte zwar wertvolle Informationsquellen sein können, aber nicht als Belege gelten, da sie keine direkten Veröffentlichungen darstellen.
Zusätzlich könnte eine kurze Erklärung hinzugefügt werden, wie die Integration von Sprach-KI-Ergebnissen in den Wikipedia-Artikel erfolgen kann. Dazu gehören zum Beispiel das Hervorheben der genauen Suchanfrage und des KI-Tools, um Transparenz zu gewährleisten.
Letztendlich liegt es jedoch an jedem Benutzer von Sprach-KI, verantwortungsbewusst mit diesen Werkzeugen umzugehen und sicherzustellen, dass ihre Ergebnisse in Übereinstimmung mit den Richtlinien der Wikipedia verwendet werden.

Klingt spannend! ‣Andreas 22:57, 28. Apr. 2025 (CEST)Beantworten

Nachtrag: nur die Zusammenfassung (ist etwas umfangreicher):

cat Diskussion.txt | ollama run stablelm2:12b --verbose "Schreibe eine Zusammenfassung der Diskussion."
In dieser Diskussion geht es um die Verwendung von Sprach-KI-generierten Texten als Belege in Wikipedia-Artikeln. Es wird betont, dass Sprach-KI mehr Funktionen hat als das Durchführen einer Web-Suche und dabei auch Inhalte generiert, anstatt lediglich Quellen zu finden.
Einige Diskussionsteilnehmer argumentieren, dass KI-generierte Texte keine Belege im Sinne der Wikipedia sind, da sie nicht als Veröffentlichungen gelten. Sie weisen darauf hin, dass bestehende Regelungen bereits klären, wie mit Web-Suchen-Ergebnissen umzugehen ist und betonen, dass Sprach-KI-Texte dieser Definition entsprechen.
Andere Diskussionsteilnehmer vertreten die Meinung, dass es notwendig ist, auf die speziellen Aspekte von KI-generierten Texten einzugehen. Sie argumentieren, dass Sprach-KI nicht nur das Ergebnis einer Web-Suche darstellt und Belege generiert, sondern auch Inhalte erzeugt und somit in der Lage ist, eine breitere Palette von Quellentypen abzudecken.
Es wird betont, dass die Verwendung von KI-generierten Texten als Belege potenzielle Probleme wie "Quellenfiktion" birgt. Die Diskussionsteilnehmer stimmen jedoch darin überein, dass es wichtig ist, sowohl die Vorteile des Einsatzes von Sprach-KI in der Recherche und Erstellung von Inhalten zu diskutieren als auch klare Anweisungen zur Verwendung solcher Texte als Belege in Wikipedia-Artikeln bereitzustellen.
Insgesamt zeigt diese Diskussion, dass es notwendig ist, die spezifischen Aspekte von Sprach-KI-generierten Inhalten zu betrachten und klarzulegen, wie sie im Zusammenhang mit den Grundsätzen der Zitierregeln in Wikipedia verwendet werden können.

Auch spannend! ‣Andreas 23:03, 28. Apr. 2025 (CEST)Beantworten