Über unsMediaKontaktImpressum
Kevin Bönisch & Manuel Schaaf 01. Juli 2025

Mensch oder KI? Erkennen von KI-generierten Texten mit Convolutional Neural Networks

Künstliche Intelligenz ist der technologische Umbruch unserer Zeit. Unternehmen wie Google, Microsoft und OpenAI bringen immer leistungsfähigere Modelle hervor, die sich gegenseitig übertrumpfen wollen. Mit jeder neuen Modellgeneration sinken die Kosten, während die Effizienz steigt. Das chinesisches Start-up DeepSeek hat kürzlich bewiesen, dass es noch schlanker, noch effizienter und vor allem auch in Open Source geht. Heute kann jeder mit minimalem technischem Aufwand kleine, optimierte Sprachmodelle lokal betreiben. Wer es unkomplizierter mag, greift auf die öffentlichen APIs der großen Tech-Konzerne zurück – und verschickt tausende Anfragen für nur wenige Euro am Tag. Das bedeutet: Inhalte auf Knopfdruck – für alle. Ob Texte, Bilder, Audio oder sogar Videos – generative KI macht es möglich. Doch wer kontrolliert eigentlich, was hier in Sekundenschnelle ins Netz gepumpt wird? Wo endet das Menschliche, wo beginnt die KI – und sollte uns das überhaupt interessieren?

Large Language Models (LLMs): Status Quo

Seit der Einführung der Transformer-Architektur haben sich Large Language Models (LLMs) rasant verbreitet [1;2]. Sie generieren Texte auf so hohem Niveau, dass sie in manchen Fällen nicht nur mit menschlicher Schreibqualität mithalten, sondern sie sogar übertreffen [3;4]. Diese Entwicklung hat eine regelrechte Flut an KI-generierten Inhalten ausgelöst. Studien zeigen einen Anstieg um 57,3 Prozent auf gängigen Webseiten – und einen alarmierenden Zuwachs von 474 Prozent auf Plattformen, die Falschinformationen verbreiten [5]. Gleichzeitig steigt die Zahl von Plagiatsfällen drastisch [6;7;8]. Besonders an Schulen und Universitäten birgt das große Risiken: Wenn KI Hausarbeiten, Übungen oder gar Prüfungen übernimmt, entfällt die Eigenleistung – und mit ihr ein essenzieller Teil des Lernprozesses.

Ein weiteres Beispiel für den Einfluss von KI zeigt die Arbeit von Lu u. a. [9]: Sie präsentierten den ersten vollständig automatisierten "AI Scientist" – ein System aus KI-Agenten, das eigenständig wissenschaftliche Artikel erstellt. Es übernimmt alles: Ideenfindung, Experimente und die finale Manuskripterstellung. Die Ergebnisse sind sogar öffentlich einsehbar.

Wenn Sprachmodelle zunehmend mit KI-generierten Texten trainiert werden, verschlechtert sich ihre Qualität irreversibel.

Die zunehmende Verbreitung KI-generierter Inhalte wirft nicht nur Fragen zur Zuverlässigkeit von Informationen und zur Herkunft von Texten auf, sondern stellt auch das gesamte digitale Ökosystem vor neue Herausforderungen [10:11]. Ein zentrales Problem dabei ist die Grundlage, auf der Sprachmodelle trainiert werden: Daten aus dem Internet. Bislang bestand dieses Trainingsmaterial überwiegend aus von Menschen verfassten Inhalten – doch das ändert sich rasant. Immer mehr KI-generierte Texte fließen zurück in den Datenpool, aus dem neue Modelle lernen [12]. Welche Folgen das hat, zeigt die Studie von Shumailov u. a. [13]: Wenn Sprachmodelle zunehmend mit KI-generierten Texten trainiert werden, verschlechtert sich ihre Qualität irreversibel. Dieses Phänomen, bekannt als "Model Collapse", führt dazu, dass spätere Modellgenerationen unter katastrophalem Vergessen leiden – ein Effekt, bei dem frühere Lerninhalte durch neue überschrieben und nicht mehr berücksichtigt werden. Das Ergebnis: ein deutlicher Verlust sprachlicher Kohärenz und Präzision. Die drastischen Auswirkungen dieses Effekts sind in Abb. 1 dargestellt.

Dieses Thema sollte daher im Interesse aller liegen – sowohl der KI-Enthusiasten, die ungeduldig auf neue, leistungsfähigere Modelle warten, als auch von Lehranstalten, Unternehmen, Freiberuflern und Arbeitnehmern, die entweder mit oder gegen KI-generierte Inhalte konkurrieren. Jedoch ist die Forschung zur automatisierten Erkennung KI-generierter Inhalte bislang vergleichsweise gering – insbesondere im Vergleich zu den enormen Anstrengungen, die in die Weiterentwicklung neuer KI-Modelle fließen. Das liegt nicht nur daran, dass viele die Optimierung bestehender Modelle oder die Entwicklung neuer Systeme als (monetär) weitaus spannender empfinden, sondern auch an der Tatsache, dass die Erkennung KI-generierter Inhalte eine nicht-triviale Aufgabe mit großer Verantwortung darstellt. Ein besonders kritisches Problem dabei sind "False Positives" — also Texte, die fälschlicherweise als KI-generiert erkannt und dadurch in vielen Fällen als Plagiat eingestuft werden, obwohl sie tatsächlich von Menschen verfasst wurden. Solche Fehleinschätzungen sind aus ethischer Sicht besonders problematisch. OpenAI selbst hat aus genau diesen Gründen im Jahr 2023 seine Demo zur Erkennung KI-generierter Texte wieder eingestellt, da die Fehlerrate schlichtweg zu hoch war [14]. Doch in KI-Zeitrechnung sind seitdem Äonen vergangen, und neueste Forschung liefert vielversprechende Ansätze. Auch im Rahmen universitärer Forschung leisten wir unseren Beitrag – mit neuen Durchbrüchen und innovativen Modellansätzen, die wir im Folgenden vorstellen.

Automatisiertes Erkennen von KI-generierten Texten

Grundlagen: Generative KI und Likelihoods

Gegenwärtige generative KIs sind Neuronale Netze, die fast ausschließlich auf der Tranformer-Architektur basieren, die 2017 von Google Brain und Google Research Forschenden erfunden wurde [15]. Die Transformer-Architektur selbst besteht aus mehreren Transformer-Layern: Schichten von identischen Neuronalen Netzwerkkomponenten, die den Attention-Mechanismus verwenden um Abhängigkeiten zwischen ihren Eingaben zu Lernen. Die technischen Details sollen an dieser Stelle dahinstehen – für uns soll nur eine grundlegende Eigenschaft der Transformer-Layer relevant sein: sie nehmen jeweils gleichartige Eingaben entgegen und geben gleichartige Ausgaben aus. Die Architektur hat dabei jeweils am Anfang und Ende der Schichten andere Komponenten, die für das Encoding von Eingabesequenzen und dem Decoding der Ausgabe verantwortlich sind. So wird eine Eingabetextsequenz zunächst zerteilt und tokenisiert – und damit auf Einheiten, die das Modell "versteht" übersetzt. Diese sind in der Regel einfach je eine Zahl pro Token, das für einen Eintrag im Vokabular des Modells steht. 

Bevor die Eingaben nun die Transformer-Layer durchlaufen, wird für die Token je ein Input Embedding – ein reellwertiger Vektor – berechnet, der aus der Summe eines gelernten Token Embedding und einem Position Embedding gebildet wird. Bei einem Forward Pass durch das Modell zur Vorhersage des nächsten Tokens, durchlaufen nun diese Input Embeddings die einzelnen Schichten des Modells, wobei die erste Schicht die Input Embeddings in einen Hidden State – latente Vektorrepräsentationen der Eingabe –umwandelt. Dieser Hidden State ist dann die Eingabe für die zweite Schicht, etc.

Der letzte Vektor des letzten Hidden State durchläuft nun einen Language Modeling Head, welcher  der Projektion der latenten Vektorrepräsentationen zurück auf das Vokabular des Modells dient. Das Ergebnis ist eine Zahl pro Token im Vokabular des Modells (die sog. Logits). Wendet man auf diese Logits nun die SoftMax-Funktion an, erhält man für jede Position in der Eingabe eine Approximation der Wahrscheinlichkeitsverteilung über alle Token an der nächsten Position im Text – bedingt durch die volle Sequenz der (jeweils) vorangegangenen Token. Zum Generieren von Texten mit einer solchen KI, wählen wir nun anhand der Wahrscheinlichkeiten das nächste Token aus und fügen es der Einggabesequenz an (sog. Autoregressives Decoding), bevor wir den Prozess wiederholen.

Wenn wir den Text allerdings bereits kennen und uns die Ausgaben eines Modells in der "Retroperspektive" anschauen, dann sprechen wir hier nicht von Wahrscheinlichkeiten, sondern von "Likelihoods". Während für uns beim Generieren die Wahrscheinlichkeiten für das letzte Token am relevantesten sind, interessieren uns in der Analyse die Likelihoods an den anderen Positionen im gegebenen Text.

Ansätze: Statistisch oder Supervised

Die aktuelle Forschungslandschaft wird von Ansätzen geprägt, die sich in zwei komplementäre Familien einteilen lassen: statistische und parametrische Ansätze. In der Ersten kommen vermehrt computerlinguistische Features zum Einsatz, die dann etwa mit Likelihood-Statistiken kombiniert werden um Aussagen über die Autorschaft eines Textes zu treffen. 

Ein Beispiel stellt hier Fast-DetectGPT dar, bei dem die Likelihood statistisch analysiert wird und somit ein Analysewert berechnet wird [16]. Dieser Wert ist allerdings nicht auf einen bestimmten Zahlenbereich begrenzt und es gibt keinen natürlichen Schwellenwert anhand dessen man eine Klassifizierung durchführen könnte. Um den Ansatz in der Praxis einzusetzen muss daher eine Sammlung von KI-Modell-spezifischen Referenztexten analysiert und aus den jeweiligen Werten ein Schwellwert berechnet werden.

Dahingegen ist Ghostbuster ein parametrischer Ansatz, bei dem ein logistisches Regressionsmodell Methoden auf Likelihood-Features trainiert wird [17]. Die Ausgabewerte der logistischen Funktion sind auf die Domäne [0, 1] begrenzt und auch ohne Referenztexte bietet sich der Schwellwert 0.5 natürlich an.

Hierin liegt ein Vorteil der parametrischen Modellfamilie, da wir grundsätzlich davon ausgehen können, dass ein Modell, das gut generalisiert, keine Anpassungen des Schwellwerts benötigt, um auf Texten von unbekannten KI-Modellen angewendet zu werden. Grundsätzlich aber zeigte sich in der Vergangenheit, dass zum Erkennen von immer besseren, von immer größeren KIs geschriebenen Texten auch Features aus immer größeren KIs benötigt werden – wobei dann auf Modelle der Open-Source-Community im Milliarden-Parameter-Bereich zurückgegriffen werden muss. Im Folgenden wollen wir nun unseren Ansatz vorstellen, der der parametrischen Familie angehört, aber dank des Einsatzes von Convolutional Neural Networks sehr parameter-sparsam ist und selbst mit Likelihoods aus kleinen LLMs Texte der GPT-4-Modellfamilie problemlos erkennt.

Convolutional Neural Networks

Convolutional Neural Networks (CNNs) sind KI-Modelle, die (ggf. mehrere) konvolutionale Schichten enthalten. Hierin lernt das Modell mittels Machine Learning die Gewichte für Kernel in Filtern. CNNs haben ihren Durchbruch in der Computer Vision gemacht und wurden bereits 1989 erfolgreich für die Erkennung von handgeschriebenen Ziffern eingesetzt [18]. Dabei lernt das Modell zunächst lokale Muster in 2D-Bildern zu erkennen, wie etwa vertikale/horizontale/diagonale Linien. In tieferen Schichten kann das Modell somit aus deren Kombination das Erkennen von komplexeren Mustern erlernen, wie etwa Autoreifen oder Gesichter. Die gelernten Filter sind translationsinvariant und über beliebig große Eingaben gleich, daher sind CNNs sehr Parameter-effizient; ein 2D-Filter der Größe fünf benötigt nur 25 Gewichte. Mit der Kombination von vielen Filtern und Schichten kommen so zwar auch hunderttausende Gewichte zusammen, die allerdings im Kontrast zu Milliarden von Gewichten in einem LLM vernachlässigbar werden.

Unser Ansatz

Unser Ansatz beruht darauf, ein CNN auf den Likelihoods eines "White Box"-LLMs zu trainieren. Hier verwenden wir aber im Gegensatz zu vorangegangen Arbeiten nicht nur die Likelihoods, die der letzten Schicht des Modells entspringen und zum Decoding verwendet werden, sondern greifen auch auf die Ausgaben der inneren Schichten zurück. Da gegenwärtige LLMs auf gleichartigen Transformer-Blöcken basieren, haben alle Hidden States die selbe Form und wir können technisch gesehen aus allen Hidden States eine Likelihood berechnen – völlig unabhängig davon, ob sie nun dem Ende, der Mitte, oder dem Anfang des Modells entspringt. Die Likelihoods der inneren Schichten – die Intermediate Likelihoods – zu berechnen ist trivial: wir multiplizieren anstelle des letzten Hidden States einfach auch die anderen Hidden States mit den Output Embeddings und wenden die SoftMax-Funktion auf die entsprechenden Ausgaben an. Somit erhalten wir ein Satz Likelihoods für jede Schicht in dem Modell.

Auf diesen trainieren wir nun ein CNN, bei dem die Intermediate Likelihoods als parallele Kanäle in das Modell eingehen. Nach dem Training ist das Modell in der Lage (komplexe) Muster in den Likelihoods zu erkennen, die auf die Autorschaft einer KI hinweisen. Bemerkenswert daran ist, dass das CNN Muster in den Likelihoods von sehr kleinen Modellen (wie GPT-2) akkurat erkennt und damit Texte die etwa aus der Feder von GPT-4o-Mini stammen, dennoch korrekt als KI-geschrieben klassifizieren kann.
 
Abb. 3 zeigt die Intermediate Likelihoods von zwei Texten im Vergleich: im KI-verfassten Text (rechts) sehen wir vermehrt Blöcke hoher Likelihood (dunkle Linien). Auffällig ist, dass die Likelihoods der letzten Schicht (oben) in diesen Blöcken nun teilweise deutlich geringer ausfallen als die der vorangegangenen Schichten. Ebendiese Muster ermöglichen es dem CNN nun akkurate Vorhersagen zu treffen, unabhängig von dem zur Erstellung der Texte genutzten verwendeten KI-Modells.

KI-Text-Erkennung: Experimente & Resultate

Bewertungsmetriken

Zur Evaluation unserer Klassifikationsmodelle verwenden wir sowohl den F1-Score als auch die Fläche unter der ROC-Kurve (AUROC). Obwohl beide Metriken zur Beurteilung der Modellgüte bei binären Klassifikationsaufgaben dienen, messen sie unterschiedliche Aspekte der Modellleistung und sollten daher komplementär interpretiert werden.

  • F1-Score: Der F1-Score ist das harmonische Mittel aus Präzision und Recall und eignet sich insbesondere für Szenarien mit unausgewogenen Klassenverteilungen. In unserem Fall der KI-Text-Erkennung ist dies besonders relevant, da generierte und menschlich verfasste Texte je nach Domäne stark im Verhältnis variieren können. Ein hoher F1-Score zeigt an, dass ein Modell sowohl wenige False Positives als auch wenige False Negatives produziert — also verlässlich zwischen echten und KI-generierten Texten unterscheidet. Ein F1-Score von 1 würde eine perfekte Performance bedeuten.
  • AUROC: Die Area Under the Receiver Operating Characteristic Curve (AUROC) misst hingegen die Fähigkeit eines Modells, zwischen den beiden Klassen über alle möglichen Schwellenwerte hinweg zu unterscheiden. Ein AUROC-Wert nahe 1 signalisiert eine starke Trennschärfe zwischen den Klassen, unabhängig von einer festen Entscheidungsgrenze. Dies ist besonders nützlich in der explorativen Analyse oder bei der Optimierung von Schwellenwerten.

Während der AUROC-Wert also eine generelle Aussage über die Modellqualität erlaubt, ist der F1-Score praxisnäher, da er direkt auf einem gewählten Schwellenwert basiert – in unserem Fall von 0,5.

Experimente

Die Erkennung von KI-generierten Texten modellieren wir im Allgemeinen als eine Textklassifikationsaufgabe. Zur Merkmalsextraktion führen wir zunächst einen einfachen Forward-Pass des tokenisierten Textes durch ein großes Sprachmodell (LLM) durch und erfassen dabei die Hidden States. Anschließend berechnen wir für jeden Hidden State die zugehörigen Intermediate Likelihoods, indem wir ihn durch den Sprachmodell-Kopf (LM-Head) weiterverarbeiten. So entsteht eine zweidimensionale Merkmalsmatrix featD ∈RL×H, wobei L die Länge des Textes in Tokens und H die Anzahl der versteckten Repräsentationen bezeichnet (z. B. 13 bei gpt2 oder 17 bei Llama3.2-1B). Zur Reduktion auf eine feste Vektorgröße untersuchen wir verschiedene Stichprobenverfahren und erzielen die besten Ergebnisse, wenn gezielt die ersten Abschnitte verwendet werden. Konkret extrahieren wir k Segmente der Länge s aus featD und fügen sie zu einem einheitlichen Vektor feat zusammen. Ist ein Text zu kurz, um genügend Segmente zu bilden, greifen wir auf die ersten k·s-Werte zurück und fügen bei Bedarf rechtsseitig Nullen an.

Wir haben das zuvor beschriebene Modell auf einem Datensatz mit insgesamt 93.419 Texten aus neun unterschiedlichen Domänen trainiert – darunter Nachrichtenartikel, politische Debatten und klassische Literatur. Der Datensatz setzt sich zu gleichen Teilen aus menschlich verfassten Texten (vor dem Jahr 2020) und von Sprachmodellen generierten Texten zusammen.

Resultate

Abb. 4 präsentiert die ersten Ergebnisse unseres Modells sowie ausgewählter Likelihood-basierter Baselines für die einzelnen Domänen. Die F1-Werte von DetectLLM ’s LLR und Fast-DetectGPT wurden ermittelt, indem die jeweiligen Metriken auf das gesamte Domänendatenset angewandt und ein Schwellenwert gewählt wurde, der dem Mittelwert zwischen den Klassenverteilungen entspricht. Für unsere Modelle geben wir den Durchschnitt aus einer fünffachen Kreuzvalidierung an. Die F1-Bewertung unserer Klassifikatoren basiert auf einem festen Schwellenwert von 0, 5. 

Unser Klassifikator übertrifft die Baselines in sämtlichen Domänen – teilweise mit deutlichem Abstand. Besonders auffällig ist dies im Web-Blog-Datensatz, der durch eine Vielzahl sprachlich unregelmäßiger Dokumente gekennzeichnet ist. Während die statistikbasierten Baselines mit diesen Eigenheiten Schwierigkeiten haben, erzielt unser Modell, trainiert auf den Intermediate Likelihoods der ersten 256 Tokens, vielversprechende Resultate. Auch im cross-lingualen Szenario überzeugt unser Ansatz, etwa mit F1-Werten von 0.963 bzw. 0.841 für die deutschen Teilmengen Bundestag und Spiegel Online.

Wir haben unser Modell auch auf einem globalen Leaderboard für Modelle zur Detektion von KI-generierten Texten, dem RAID-Benchmark [19], der sich selbst als "largest and most challenging benchmark for AI-generated text detection" beschreibt, einstufen lassen und halten dort mit einer perfekten True-Positive-Rate von 100 Prozent den ersten Platz [20]. Wie so oft gilt jedoch auch hier: Nicht alles, was glänzt, ist Gold, weshalb die Ergebnisse mit gebotener Vorsicht zu interpretieren sind. Durch weiterführende Tests haben wir erhebliche Schwächen dieses Benchmarks identifiziert und verzichten daher bewusst darauf, die Platzierung unseres Modells auf diesem Leaderboard übermäßig zu betonen. Die erwähnten Mängel werden wir jedoch zunächst weiter ausarbeiten und zu gegebener Zeit mit den Autoren in Kontakt treten.

Künstliche Intelligenz auf den diesjährigen IT-Tagen

Spannende Vorträge und Workshops zum Thema Künstliche Intelligenz  erwarten Euch auch auf den IT-Tagen, der Jahreskonferenz von Informatik Aktuell. Die IT-Konferenz findet jedes Jahr im Dezember in Frankfurt statt – dieses Jahr vom 08.-11.12.

Fazit und Ausblick

Die ersten Experimente mit unserem Modell zur KI-Text-Erkennung sind vielversprechend. Auch andere aktuelle Ansätze aus der Forschung lassen darauf schließen, dass eine relativ zuverlässige Unterscheidung zwischen menschlich und maschinell generierten Texten möglich ist. Ein zentrales Anliegen unserer Arbeit ist es dabei, die deutsche Sprache stärker in den Fokus zu rücken – ein Bereich, der in der internationalen Forschung häufig unterrepräsentiert ist. 

Gleichzeitig sollten die erzielten Ergebnisse mit Vorsicht interpretiert werden. Zwar zeigt unser Modell auf den untersuchten Datensätzen überzeugende Leistungen, doch handelt es sich bislang um kontrollierte Testszenarien mit begrenztem Umfang. Wie sich das System in realitätsnäheren Anwendungsfällen bewährt – insbesondere bei KI-generierten Texten, die gezielt angepasst oder verschleiert wurden – ist Gegenstand laufender Untersuchungen.

Interessierte, die sich näher mit unserem Modell, dem zugrundeliegenden Datensatz oder der allgemeinen Forschungsarbeit befassen möchten, sind herzlich eingeladen, mit uns in Kontakt zu treten. Aktuell entsteht im Rahmen dieser Arbeit sowohl ein wissenschaftliches Paper als auch eine Masterarbeit, die das Thema weiter vertiefen und die Forschung in diesem Bereich vorantreiben werden.

Quellen
  1. Ashish Vaswani u. a.: Attention is All You Need. In: Neural Information Processing Systems. 2017.
  2. Veniamin Veselovsky, Manoel Horta Ribeiro und Robert West: Artificial Artificial Artificial Intelligence: Crowd Workers Widely Use Large Language Models for Text Production Tasks. 2023. arXiv:2306.07899 [cs.CL].
  3. OpenAI u. a.: GPT-4 Technical Report. 2024. arXiv: 2303.08774 [cs.CL].
  4. Carlos Gomez-Rodrıguez und Paul Williams: A Confederacy of Models: a Comprehensive Evaluation of LLMs on Creative Writing. In: Findings of the Association for Computational Linguistics: EMNLP 2023. Hrsg. von Houda Bouamor, Juan Pino und Kalika Bali. Singapore: Association for Computational Linguistics, Dez. 2023, S. 14504–14528. doi: 10.18653/v1/2023.findings-emnlp.966.
  5. Hans W. A. Hanley und Zakir Durumeric: Machine-Made Media: Monitoring the Mobilization of Machine-Generated Articles on Misinformation and Mainstream News Websites. In: International Conference on Web and Social Media. 2023.
  6. Theophile Bisi u. a.: What is the rate of text generated by artificial intelligence over a year of publication in Orthopedics & Traumatology: Surgery & Research? Analysis of 425 articles before versus after the launch of ChatGPT in November 2022. In: Orthopaedics & Traumatology: Surgery & Research 109.8 (2023), S. 103694. issn: 1877-0568.
  7. Faisal R. Elali und Leena N. Rachid: AI-generated research paper fabrication and plagiarism in the scientific community. In: Patterns 4.3 (2023), S. 100706. issn: 2666-3899.
  8. Shushanta Pudasaini u. a.: Survey on Plagiarism Detection in Large Language Models: The Impact of ChatGPT and Gemini on Academic Integrity. 2024. arXiv: 2407.13105 [cs.CY].
  9. Chris Lu u. a.: The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery. 2024. arXiv: 2408.06292 [cs.AI].
  10. Yang Shen und Xiuwu Zhang: The impact of artificial intelligence on employment: the role of virtual agglomeration. In: Palgrave Communications 11.1 (Dez. 2024), S. 1–14.
  11. Kuang-Hsien Wang und Wen-Cheng Lu.: AI-induced job impact: Complementary or substitution? Empirical insights and sustainable technology considerations. In: Sustainable Technology and Entrepreneurship 4.1 (2025), S. 100085. issn: 2773-0328.
  12. Brian Thompson u. a.: A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism. In: Findings of the Association for Computational Linguistics: ACL 2024. Hrsg. von Lun-Wei Ku, Andre Martins und Vivek Srikumar. Bangkok, Thailand: Association for Computational Linguistics, Aug. 2024, S. 1763–1775.
  13. Ilia Shumailov u. a.: AI models collapse when trained on recursively generated data. In: Nature 631.8022 (Juli 2024), S. 755–759. issn: 1476-4687.
  14. OpenAI: New AI classifier for indicating AI-written text
  15. Ashish Vaswani u. a.: Attention is All You Need. In: Neural Information Processing Systems. 2017.
  16. Guangsheng Bao u. a.: Fast-DetectGPT: Efficient Zero-Shot Detection of Machine-Generated Text via Conditional Probability Curvature. In: ICLR. 2024.
  17. Vivek Verma u. a.: Ghostbuster: Detecting Text Ghostwritten by Large Language Models. In: Proceedings of the 2024 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 1: Long Papers). Hrsg. von Kevin Duh, Helena Gomez und Steven Bethard. Mexico City, Mexico: Association for Computational Linguistics, Juni 2024, S. 1702–1717.
  18. Yann LeCun u. a.: Backpropagation Applied to Handwritten ZIP Code Recognition. In: Neural computation 1.4 (1989), S. 541–551.
  19. Liam Dugan u. a.: RAID: A Shared Benchmark for Robust Evaluation of Machine-Generated Text Detectors. In: Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Hrsg. von Lun-Wei Ku, Andre Martins und Vivek Srikumar. Bangkok, Thailand: Association for Computational Linguistics, Aug. 2024, S. 12463–12492.
  20. RAID Benchmark Leaderboard 

Autoren
Das könnte Sie auch interessieren
Kommentare (0)

Neuen Kommentar schreiben