Immer mehr Kommentarspalten im Netz werden von automatisch generierten Beiträgen überflutet. Auffällig sind dabei kurze Floskeln, generisches Lob oder emoji-reiche Texte, die kaum inhaltliche Substanz haben. Plattformen wie YouTube, Medium oder größere Blogs berichten von einer wachsenden Zahl solcher Beiträge.
Studien zeigen, dass hinter vielen dieser Kommentare Botnetze stehen, die inzwischen KI-Modelle einsetzen, um täuschend menschlich zu wirken. Auch in politischen Diskussionen kam es bereits zu dokumentierten Fällen, bei denen KI-Bots gezielt eingesetzt wurden, um Debatten zu beeinflussen. Fachleute weisen zugleich darauf hin, dass nicht jede Auffälligkeit zwangsläufig auf einen Bot hindeutet – gängige Erkennungsmethoden sind nicht frei von Fehlern.
Als Gegenmaßnahmen empfehlen sich strengere Moderation, technische Filter wie Captchas oder Wortlisten sowie eine stärkere Einbindung der Community bei der Identifizierung verdächtiger Beiträge. Insgesamt zeichnet sich ab, dass die Qualität von Online-Diskussionen zunehmend von der Fähigkeit abhängt, echte Beiträge von maschinell erzeugten Kommentaren zu unterscheiden.