KI-Einsatz: Plagiat? Fakten, Gefahren, Moral & Lösungen

Hilft Ihr KI-Assistent Ihnen, kreativer zu werden, oder unterdrückt er Ihre Kreativität?
Wenn Chatbots Aufsätze verfassen und Algorithmen Logos designen, verschwimmt die Grenze zwischen Innovation und Diebstahl. Die verborgenen Ursprünge der KI zu ignorieren oder die Überprüfung der Fakten zu vernachlässigen? Das ist nicht nur faul, sondern gefährlich.
Tauchen Sie ein in die Grauzone der Tech-Ethik und erfahren Sie: "Ist KI Plagiat?". Ihre Glaubwürdigkeit steht auf dem Spiel. Finden Sie heraus, was passiert, und wie Sie sicherstellen können, dass Ihre Inhalte originell und korrekt bleiben.
Was ist ein Plagiat?
Ein Plagiat liegt vor, wenn Sie die Gedanken, Formulierungen oder kreativen Werke einer anderen Person verwenden und diese als Ihre eigenen ausgeben, ohne die Quelle anzugeben. Ob absichtlich oder unabsichtlich, untergräbt dies nicht nur Ihre eigene Leistung, sondern auch Ihre Glaubwürdigkeit und Authentizität, die sowohl im Studium als auch im Beruf von entscheidender Bedeutung sind. Stellen Sie sich vor, Sie verwenden ein Diagramm aus einer Forschungsarbeit in Ihrem Bericht, ohne die Quelle zu nennen, oder Sie zitieren eine neue Idee aus einem Text, ohne den Autor zu erwähnen. Solche unbeabsichtigten Handlungen gelten als Plagiat.
Plagiat bedeutet nicht nur das wörtliche Kopieren und Einfügen von Texten. Auch das Umschreiben eines Absatzes mit eigenen Worten, wobei Sie sich aber genau an den ursprünglichen Inhalt (oder die Struktur) halten, gilt als Plagiat, selbst wenn Sie die Quelle angeben. Wenn Sie beispielsweise einen Absatz aus einem Zeitungsartikel umformulieren, einige Wörter austauschen, aber die Kernaussage beibehalten, handelt es sich dennoch um eine Form von intellektueller Unehrlichkeit. Das Gleiche gilt für die Verwendung fremder Fotos, Computerprogramme oder Kunstwerke ohne Erlaubnis (oder zumindest ohne Nennung des Urhebers).
Ein Plagiat kann vorsätzlich sein, wie beispielsweise das Abschreiben der Hausaufgaben eines Freundes, oder unbeabsichtigt, etwa wenn man die Quelle nicht angibt, weil man keine ordentlichen Notizen gemacht hat. In beiden Fällen können die Konsequenzen erheblich sein – von akademischen (z. B. eine Bewertung der Aufgabe mit null Punkten) bis hin zu beruflichen (bis hin zum Verlust der Glaubwürdigkeit). In schwerwiegenden Fällen können rechtliche Schritte eingeleitet werden, insbesondere bei Urheberrechtsverletzungen.
Durch den technologischen Fortschritt und KI werden die traditionellen Definitionen von Plagiaten immer unklarer, da die Grenzen zwischen Originalarbeit und automatisierten Inhalten verschwimmen. Dies wirft wichtige Fragen hinsichtlich Verantwortung und Ethik auf, die wir in späteren Abschnitten untersuchen werden.
Wie KI die Grenzen zwischen Originalität und Diebstahl verschwimmen lässt
KI-basierte Programme sind in der Lage, Texte, Bilder oder Skripte durch einen Prozess namens Generierung zu erstellen. Anstatt selbstständig Ideen zu entwickeln, nutzen und rekombinieren sie Muster, die sie in den vorhandenen Daten erkennen. Wenn man eine KI beispielsweise damit beauftragt, einen Text über den Klimawandel zu verfassen, kann sie Teile von Sätzen und Absätzen aus wissenschaftlichen Studien, Nachrichtenartikeln und Blogbeiträgen zusammensetzen, mit denen sie während des Trainings gefüttert wurde. Obwohl das Ergebnis neu und einzigartig erscheint, basiert es im Wesentlichen auf bereits existierenden Quellen, die nicht korrekt zitiert wurden. Das führt zu einer Grauzone: Handelt es sich um ein Originalwerk oder um eine versteckte Kopie der Arbeit einer anderen Person?
Hier liegt die Gefahr von Plagiaten – ohne böse Absicht (die KI denkt ja nicht: „Das klaue ich jetzt einfach!“). Die KI versteht schlichtweg nicht, dass man die Leistung anderer anerkennen muss. Wenn man also eine KI nutzt, um einen Abschnitt einer wissenschaftlichen Arbeit zu schreiben, und diese die Schlussfolgerung einer anderen Arbeit paraphrasiert, ohne die Quelle zu nennen, begeht man ungewollt ein Plagiat. Schlimmer noch, man könnte fälschlicherweise davon ausgehen, dass der KI-generierte Inhalt völlig neu ist, ohne zu erkennen, dass er von einer anderen Quelle stammt.
Darüber hinaus erhöht KI die Plagiatsgefahr, weil sie das Erstellen von Inhalten so einfach macht. Wenn man in Sekundenschnelle Essays, Code oder Bilder generieren kann, ist es verlockend, die Ergebnisse ohne große Überarbeitung zu übernehmen. Zum Beispiel: Wenn ein Absatz über Shakespeares Themen von einer KI erstellt, aber von einem Studenten überarbeitet wurde, hat der Student dann überprüft, ob die zugrunde liegende Analyse nicht von einem anderen Autor übernommen wurde? Aber selbst subtilere Formen der Übernahme – etwa die Verwendung von Fachjargon oder eine bestimmte Interpretation von Daten – können ethisch fragwürdig sein.
Zusätzliche Verwirrung entsteht durch die Fähigkeit der KI, Schreibstile zu imitieren. Wenn ein Benutzer die KI beispielsweise anweist, „im Stil eines Harvard-Forschungsartikels zu schreiben“, kann die KI Formulierungen übernehmen, die typisch für die in den Trainingsdatenbanken enthaltene wissenschaftliche Literatur sind. Das Ergebnis könnte ohne sorgfältige Prüfung als Plagiat durchgehen, da es kaum von einem bestehenden Artikel zu unterscheiden ist.
Indem KI die Art und Weise verändert, wie Inhalte erstellt werden, verschwimmen auch die Grenzen zwischen Urheberschaft und Verantwortlichkeit. Die Verantwortung, die Originalität von KI-basierter Arbeit zu überprüfen, wird auf die Nutzer verlagert – eine Aufgabe, für die viele nicht ausreichend vorbereitet sind.
Ist die Verwendung von KI also ein Plagiat?
Grundsätzlich ist die Nutzung von KI nicht zwangsläufig ein Plagiat, kann aber so eng damit verbunden sein, dass der Unterschied kaum mehr relevant ist. Entscheidend ist die Transparenz. Wenn eine KI Inhalte erzeugt, die unoriginelle Ideen, Formulierungen oder Daten enthalten, und diese nicht korrekt zitiert werden, riskieren Sie einen Verstoß gegen akademische Richtlinien. Wenn Sie beispielsweise eine KI bitten, ein historisches Ereignis zusammenzufassen, und diese spezifische Interpretationen eines Historikers liefert, ohne dass Sie diesen nennen oder kenntlich machen, dass es sich nicht um Ihre eigenen Gedanken handelt, stellt die Einreichung dieser Zusammenfassung als Ihre eigene Arbeit eine Form des Plagiats dar, selbst wenn Sie nicht bewusst kopiert haben.
KI erschwert die Sache zusätzlich, da sie als Vermittler agiert. Wenn eine KI als Werkzeug zwischen Nutzer und Text fungiert, ist die Herkunft der von der KI genutzten Quelle oft unbekannt. Wenn ein KI-generiertes Gedicht "im Stil von Maya Angelou" verfasst wird und die KI spezifische Metaphern oder Rhythmen aus einem unveröffentlichten Gedicht von Angelou übernimmt, könnte das neue Gedicht unbeabsichtigt ein Werk plagiieren, zu dem der Nutzer nie vollständigen Zugang hatte. In solchen Fällen ist die Verantwortlichkeit für die Handlung unklar.
Aber keine Sorge, nicht jede Nutzung von KI führt dazu, dass Sie ungewollt Liebesbriefe an deren Urheber verfassen. Wenn KI dazu dient, Ihre Gedanken zu strukturieren (nicht zu formulieren) oder Ideen zu sammeln, und Sie dabei präzisen Text aus einer überprüften Quelle beziehen, ist das vergleichbar mit der Nutzung einer Rechtschreibprüfung. Die Grenze ist überschritten, wenn Sie KI-generierte Texte, Code oder Kunstwerke einreichen, ohne deren Originalität zu prüfen (sofern dies möglich ist) oder die Leistung der KI überhaupt anzuerkennen. Es wäre unklug, Hausarbeiten über die Ökonomie des Muschelsammelns einzureichen, die von KI generiert wurden, wenn diese nicht als weitgehend identisch mit bestehenden Arbeiten zu diesem Thema verifiziert werden können.
Darüber hinaus gelten in verschiedenen Berufen und Fachbereichen unterschiedliche Regeln:
Akademie: Viele Bildungseinrichtungen stufen nicht zitierte KI-Inhalte als Plagiat ein – selbst wenn das Tool keine konkrete Quelle "kopiert". Beispielsweise kann ein Student für das Einreichen einer von KI verfassten Literaturübersicht mit Punktabzug rechnen, da dies einen Verstoß gegen die Richtlinien für eigenständiges wissenschaftliches Arbeiten darstellt.
SEO und digitales Marketing: Google und andere Suchmaschinen können KI-generierte Inhalte herabstufen, wenn sie diese als minderwertig oder unoriginell einstufen, da es sich um eine Form des "Content-Diebstahls" handelt. Dies dient der Manipulation von Suchergebnissen.
Geistiges Eigentum: Autoren in der Kreativbranche, die KI zur Erstellung von Drehbüchern nutzen, können in Urheberrechtsstreitigkeiten verwickelt werden, wenn ihre Werke bereits bestehende Schutzrechte verletzen.
Vereinfacht ausgedrückt: KI selbst begeht kein Plagiat. Ob die Verwendung von KI jedoch ethisch vertretbar oder Betrug ist, hängt von den jeweiligen Normen des Fachbereichs ab. Ein Journalist, der von KI generierte Fakten ungeprüft veröffentlicht, verstößt gegen die journalistischen Standards, ebenso wie ein Entwickler, der KI-Code-Schnipsel unter Verletzung der Open-Source-Lizenzbedingungen veröffentlicht. Es gilt also, die Gepflogenheiten des eigenen Fachbereichs zu kennen, denn was in einem Kontext zulässig ist, kann in einem anderen Betrug sein.
Je stärker KI in Arbeitsabläufe integriert wird, desto wichtiger wird diese Unterscheidung.
Teil 4: Ist KI-generierter Inhalt ethisch vertretbar?
KI-generierter Inhalt ist an sich nicht unethisch. Ethische Probleme entstehen jedoch, wenn Geschwindigkeit wichtiger ist als Genauigkeit, Fairness und Transparenz. Im Folgenden untersuchen wir drei zentrale ethische Fallstricke: Falschdarstellung, Voreingenommenheit und Authentizität – und wie diese zusammenhängen.
1. Falschdarstellung von Daten und Informationen
KI fehlt es an Absicht und echtem Verständnis. Sie erkennt Muster, gibt aber keine Fakten wieder. Wenn ihre Trainingsdaten Lücken aufweisen, kann das Modell plausible Falschinformationen "halluzinieren". Beispielsweise könnte eine KI, die eine medizinische Studie zusammenfassen soll, "Ergebnisse" erzeugen, die im Kontext der Anfrage zwar plausibel klingen, aber tatsächlich nicht existieren. Das bedeutet, dass Studierende, die KI-"Cheats" in ihre Arbeiten einfügen, unwissentlich falsche Quellen angeben könnten. Ebenso könnten Journalisten unwissentlich KI-basierte Falschmeldungen verbreiten. Dies untergräbt das Vertrauen in Institutionen und verstärkt die Verbreitung von Falschinformationen.
2. Verstärkung von Voreingenommenheit
KI-Modelle lernen Voreingenommenheiten aus ihren Trainingsdaten. Wenn beispielsweise eine KI zur Vorauswahl von Bewerbern anhand früherer Einstellungsentscheidungen lernt, in denen Männer bevorzugt wurden, kann eine Bewerbung mit "weiblichen" Schlüsselwörtern schlechter bewertet werden. Oder eine KI, die Nachrichtenartikel zusammenfasst, könnte Schwarze überproportional oft als Täter darstellen und so rassistische Vorurteile verstärken. Dies sind keine bloßen technischen Fehler, sondern neue Formen der Voreingenommenheit, die diskriminierende soziale Strukturen reproduzieren, insbesondere wenn Nutzer die Ergebnisse der KI als neutral oder objektiv wahrnehmen.
3. Verlust von Authentizität
Da KI bereitwillig auf bereits Vorhandenes zurückgreift, leidet die Originalität. Ein Kreativteam, das mit KI Kampagnenslogans erstellt, könnte unbeabsichtigt Werbetexte eines Wettbewerbers kopieren, ohne dies zu bemerken. Es ist schwierig zu erkennen, wo Inspiration endet und Plagiat beginnt. Bei kreativen Werken wie einem KI-generierten Roman im Stil eines Bestsellerautors besteht die Gefahr, dass die menschliche Kreativität entwertet wird, wenn der menschliche Schöpfer in den Hintergrund tritt. Auch wenn Texte nicht direkt aus anderen Werken kopiert werden, entstehen Fragen hinsichtlich der Originalität und der Bedeutung von gutem Glauben beim kreativen Schaffen.
Der Dominoeffekt ethischer Fehltritte
Diese Probleme hängen zusammen:
Falschdarstellung → Verbreitung von Fehlinformationen → Untergräbt das öffentliche Vertrauen.
Voreingenommenheit → Verstärkt Diskriminierung → Schadet marginalisierten Gruppen.
Mangelnde Authentizität → Reduziert Originalität → Untergräbt kreativen und akademischen Wert.
Beispielsweise könnte ein Personalverantwortlicher, der eine voreingenommene KI einsetzt, qualifizierte Bewerber ablehnen (Voreingenommenheit). Ein KI-generierter Bericht mit falschen Daten (Falschdarstellung) könnte falsche Unternehmensentscheidungen zur Folge haben und zu Richtlinien führen, die bestimmte Gruppen weiter benachteiligen (Dominoeffekt).
Wer trägt die Verantwortung?
KI "entscheidet" sich nicht bewusst für unethisches Verhalten. Sie ist das Ergebnis der Daten, mit denen sie trainiert wurde, und der Art und Weise, wie sie von ihren Nutzern eingesetzt wird. Ein Forscher, der mit KI einen ersten Entwurf für seine Studie erstellt, muss die Ergebnisse dennoch überprüfen. Ein Autor, der KI zur Ideenfindung nutzt, muss sicherstellen, dass das Endprodukt originell ist. Ethisches Handeln erfordert aktives menschliches Handeln, nicht blindes Vertrauen.
Im Gesundheitswesen oder im juristischen Bereich können Fehler lebensbedrohliche Folgen haben. Die Fehldiagnose eines Patienten aufgrund fehlerhafter Trainingsdaten ist nicht nur unmoralisch, sondern gefährlich.
Ethik ist eine menschliche Verpflichtung
Die ethischen Gefahren der KI sind keine Produktfehler, sondern menschliche Schwächen. Wenn KI als Werkzeug zur Erstellung, Sortierung oder Reproduktion von Inhalten eingesetzt wird, zeigt sich, wie leicht Bequemlichkeit wichtiger wird als Verantwortungsbewusstsein. Die Lösung besteht nicht darin, KI abzulehnen, sondern sie bewusst einzusetzen – mit dem Verständnis, dass jeder KI-generierte Inhalt mit Sorgfalt, historischem Bewusstsein und Verantwortungsbewusstsein betrachtet werden muss.
Wie Technik KI- und Plagiatserkennung ermöglicht
Die derzeitigen Technologien zur Erkennung von Inhalten, die durch künstliche Intelligenz (KI) generiert wurden, und von Plagiaten basieren hauptsächlich auf zwei Säulen: Mustererkennung (für die Erkennung durch Software) und Datenbankabgleich (um Betrug aufzudecken). Keine dieser Methoden ist perfekt, aber Fortschritte haben es erleichtert, nicht originale Inhalte oder gefälschte Arbeiten zu identifizieren.
1. KI-generierte Inhalte erkennen
Tools zur KI-Erkennung analysieren Schreibmuster, die sich von denen menschlicher Autoren unterscheiden. Zum Beispiel:
Perplexität (Verwirrungsgrad): Misst, wie "vorhersagbar" ein Text ist. KI-generierte Texte weisen oft eine geringere Perplexität auf, da sie gängigen Sprachmustern folgen.
Burstiness (Unregelmäßigkeit): Bewertet den Satzrhythmus. Menschliche Texte variieren in Satzlänge und -struktur, während KI dazu neigt, gleichförmige Texte zu produzieren.
Tools wie GPTZero, Turnitins KI-Tool und OpenAIs Modell sind in der Lage, diese Warnsignale zu erkennen. Es ist vergleichbar damit, wenn ein Student einen Aufsatz mit ungewöhnlich einheitlichen Satzlängen und wiederholenden Formulierungen einreicht – KI kann dies aufdecken. Hochentwickelte KI-Modelle können jedoch menschliche Variabilität imitieren, wodurch ein Katz-und-Maus-Spiel zwischen Erkennungstools und sich weiterentwickelnden Algorithmen entsteht.
Können Lehrer Ihre ChatGPT-Arbeit erkennen?
Ja. Lehrer können Inkonsistenzen im Schreibstil, mangelnde Tiefe oder ungewöhnliche Formulierungen feststellen. Sie können auch KI-Erkennungstools verwenden oder die Arbeit mit Ihren vorherigen Einreichungen vergleichen. KI-generierte Inhalte weisen oft auffällige Muster auf, die weitere Untersuchungen nach sich ziehen können.
2. Plagiatserkennungssoftware
Plagiatserkennungssoftware (z. B. Grammarly, Copyscape, iThenticate) vergleicht Ihren Text mit umfangreichen Datenbanken aus wissenschaftlichen Arbeiten, veröffentlichten Werken und Webseiten. Eine solche Software funktioniert folgendermaßen:
Ein Blogbeitrag, der einen Absatz aus einem Artikel von Forbes kopiert, wird mit der Quelle in der Datenbank übereinstimmen.
Paraphrasierte Inhalte, die die ursprüngliche Struktur oder Terminologie beibehalten, können dennoch von Algorithmen erkannt werden, die semantische Ähnlichkeiten analysieren.
Diese Tools haben jedoch Schwierigkeiten mit:
Nicht im Index enthaltenen Materialien: Persönliche Aufzeichnungen, Artikel, die nur über ein Abonnement zugänglich sind, oder nicht-englische Texte.
Durch KI erstellte Plagiate: Inhalte, die bestehende Werke umschreiben, ohne sie direkt zu kopieren.
3. Hybride Ansätze
Dies wurde in den letzten Jahren angegangen, wobei einige Feedback- und Kontrollsysteme begonnen haben, die KI-Erkennung in andere Plattformen zu integrieren. Turnitin bietet dies mittlerweile an. Wenn also ein Laborbericht von einem KI-Modell erstellt und leicht verändert aus einem Lehrbuch übernommen wurde, würde dies auf zwei Arten erkannt: durch eine niedrige Perplexität (die auf KI hindeutet) und durch die Übereinstimmung mit der Formulierung im Lehrbuch (Plagiat).
Wie wahrscheinlich ist eine Erkennung?
Die Genauigkeit variiert. GPTZero und ähnliche Tools erreichen in der Regel eine Genauigkeit von 80-90 % bei älteren KI-Modellen (wie GPT-3), wobei die Erfolgsquote bei neueren Versionen (wie GPT-4) geringer ist. Es gibt auch Fehler in die andere Richtung, wobei KI von Menschen verfasste, technische und formelhafte Texte (wie juristische Texte) fälschlicherweise als KI-generiert einstuft.
Das Kopieren ist im Allgemeinen leichter zu erkennen als Plagiate, aber KI-basierte Umschreibungen und "Patchwriting" (das Zusammenfügen von Texten aus verschiedenen Quellen) können der Erkennung manchmal entgehen.
Da KI immer intelligenter wird, gilt dies auch für die Erkennungsmethoden. Einige neue Strategien sind:
Watermarking: Unsichtbare Kennzeichen, die in KI-generierte Ausgaben eingebettet werden.
Eine Analyse der Metadaten: Überwachung von Änderungen und des Schreibprozesses, um die Zusammenarbeit von Mensch und Maschine zu erkennen.
4. Menschliches Urteil: Die ungeschriebenen Kriterien
Doch auch ohne solch ausgefeilte Techniken können Dozenten und Experten in der Regel erkennen, ob etwas mithilfe von KI erstellt wurde, dank inhaltlicher Unstimmigkeiten.
Zum Beispiel, wenn ein Lehrer eine Arbeit eines Schülers beurteilt, dessen Schreibstil und Einsichten er das ganze Semester über kennt, und plötzliche Verbesserungen der Kompetenz feststellt. Wenn plötzlich ein Aufsatz perfekt strukturiert ist, voller Fachjargon und präziser Argumente, wird dies Anlass zur Besorgnis geben. Das Gleiche gilt für Recherchen, bei denen eine persönliche Note fehlt und die sich nicht in die Diskussionen im Kurs einfügen.
Erfahrene Gutachter können auch feststellen, wenn der Ton oder das Fachwissen nicht angemessen ist. Zum Beispiel:
Eine Arbeit über Shakespeares Sonette, die oberflächlich Themen behandelt, die im Unterricht nie besprochen wurden.
Ein technischer Bericht, der fortgeschrittene Konzepte enthält, die dem Studenten nicht vermittelt wurden.
In solchen Fällen können Lehrer mündliche Prüfungen oder zusätzliche Tests durchführen, um das Verständnis zu überprüfen. Wenn ein Schüler die Argumente in seinem eingereichten Aufsatz nicht kennt, hat er den Aufsatz wahrscheinlich nicht selbst geschrieben. Das menschliche Element bietet eine zusätzliche Kontrolle über den technologischen Aspekt und reduziert so den Bedarf an mehrfachen Kontrollen des Systems.
Kein Tool ist perfekt. Ein Team, das KI nutzt, um Inhalte für Social-Media-Marketing zu erstellen, kann derzeit unentdeckt bleiben. Mit dem Wachstum von Datenbanken und Algorithmen sinkt jedoch die Wahrscheinlichkeit, dass dies so bleibt.
Wie man Plagiat vermeidet (mit oder ohne KI)
Aber Plagiatsvermeidung ist mehr als nur eine Formalie, die man einhält, um Konsequenzen zu vermeiden. Es ist vielmehr eine Frage des Respekts gegenüber geistiger Arbeit und der Wahrung akademischer und kreativer Integrität. Auch wenn KI-Tools die Sachlage verkompliziert haben, bleiben die Grundprinzipien dieselben: Quellen korrekt angeben, nach Originalität streben und die eigene Arbeit auf Richtigkeit prüfen.
Ohne KI entsteht Plagiat durch fehlerhafte Zitation und Synthese. Mit KI kommt hinzu, dass computergenerierte Inhalte auf Plagiate geprüft werden müssen und der Einsatz von KI offengelegt werden muss. Unabhängig davon bleibt der Ansatz derselbe: Argumente werden (manuell oder mithilfe eines Computers) aus fremden Quellen konstruiert.
Der Aufstieg der KI unterstreicht die Bedeutung menschlicher Urteilskraft. Maschinen können zwar Texte erstellen oder Lösungen vorschlagen, aber sie haben keine eigene Zielsetzung oder Verantwortungsbewusstsein. Menschen müssen die Ergebnisse analysieren, Informationen überprüfen und ihre eigene Interpretation einbringen.
Heutzutage ist Transparenz in Bildungseinrichtungen und Unternehmen jedoch die Norm – sei es beim Einsatz von KI, bei der sorgfältigen Quellenangabe oder beim Vorzug des Einfachen vor dem Komplizierten. Ob Student, Journalist, Künstler oder Ingenieur, das Ziel ist stets dasselbe geblieben: eine Arbeit zu schaffen, die Ihr Wissen, Ihren Fleiß und Ihre Wertschätzung für andere widerspiegelt.
Abschließende Gedanken: Ist der Einsatz von KI ein Plagiat?
Kurz gesagt: Es kommt darauf an.
KI ist kein Plagiat, sondern eine Technologie. Allerdings riskieren Sie einen ethischen Verstoß, wenn Sie durch KI erstellte Inhalte ohne Quellenangabe verwenden. Wenn Sie Informationen oder Ideen ohne Zitate kopieren und einfügen, handelt es sich um ein Plagiat.
Das Wichtigste ist Ehrlichkeit. Überprüfen Sie Fakten, nennen Sie alle Quellen und überlassen Sie das Denken nicht dem Algorithmus. Richtig eingesetzt, kann KI die Kreativität fördern. Falsch eingesetzt, kann sie Ihre Glaubwürdigkeit, Authentizität und Integrität beschädigen. Sie haben die Wahl!