Meinung | KI ist überall. Redakteure sollten es auch sein.
(agsandrew/Shutterstock)Jeden Tag lese ich mehr über generative künstliche Intelligenz und fast jeden Tag sehe ich Anzeigen, die mir eine KI-gestützte App oder einen Dienst verkaufen wollen, der angeblich meine Produktivität steigert, meinen Arbeitsablauf effizienter macht oder meinen Schülern hilft, besser zu lernen.
Diese Technologie verändert wie andere zuvor die Art und Weise, wie wir arbeiten, lehren und lernen. Aber wo auch immer KI eingesetzt wird, sollte die Bearbeitung mit ihr einhergehen.
Da der Einsatz von KI in Medienberufen immer häufiger vorkommt, müssen Menschen im Prozess bleiben, um sicherzustellen, dass die KI-Ergebnisse nützlich, angemessen und korrekt sind. Genauigkeit ist entscheidend für die Aufrechterhaltung der Glaubwürdigkeit und die scharfen Augen und die Fähigkeit der Redakteure, Fakten zu prüfen, sind entscheidend für die Genauigkeit.
KI generiert so häufig falsche oder gefälschte Informationen, dass das Phänomen einen Namen hat: Halluzination. Die generierten Ergebnisse behaupten zuverlässig Tatsachen, die fiktive Quellen sind, die nicht existieren, und Ereignisse, die nie stattgefunden haben. Tatsächlich Die Halluzinationsrate ist schlimmer geworden In der neuesten Version von OpenAI bedeutet dies, dass mehr und nicht weniger Menschen in den Veröffentlichungsprozess einbezogen werden müssen.
Ohne dass jemand hinter der KI-Ausgabe nachschaut, werden Halluzinationen veröffentlicht und landen vor einem Massenpublikum. Ein engagierter Redakteur, der Zeit und Mühe in die Faktenprüfung und genaue Lektüre investiert, kann fehlerhafte, unvollständige oder veraltete Informationen ausmerzen und unangemessene, unsensible oder einfach nur unangenehme Inhalte kennzeichnen.
Was passiert, wenn Redakteure außen vor bleiben? Ein paar aktuelle Beispiele:
Widerrufserklärung von Wired verdeutlicht das eigentliche Problem: Wir haben hier Fehler gemacht: Diese Geschichte hat keinen ordnungsgemäßen Faktenprüfungsprozess durchlaufen und wurde nicht von einem erfahreneren Redakteur nach oben korrigiert. Dieser Bearbeitungsprozess hätte sichergestellt, dass der Inhalt vertrauenswürdig war, und nicht zu einem Vertrauensbruch beim Publikum geführt.
Und das sind nur Beispiele aus dem Journalismus. Andere Medien sind nach ihren eigenen, von der KI verursachten Pannen aus den falschen Gründen viral geworden; einige (von vielen) Beispielen sind:
Solche peinlichen Fehler untergraben das Vertrauen und verdeutlichen die Notwendigkeit menschlicher Aufsichtsfunktionen. Nennen Sie es Qualitätskontrolle, Verantwortlichkeit, Authentifizierung, wie Sie wollen – es ist Bearbeitung unter einem anderen Namen. Und durch Bearbeiten vermeiden Sie die Veröffentlichung falscher oder erfundener Inhalte – und vermeiden die unvermeidliche Gegenreaktion genau der Zielgruppe, die Sie gewinnen möchten.
Mittlerweile beginnen die Unternehmen es zu bemerken. Ein kürzlich von ChatGPT selbst für einen Human-Content-Strategen geposteter Beitrag stieß auf LinkedIn auf einiges Aufsehen, und immer mehr Unternehmen erkennen, dass KI-generierte Inhalte für ihre Zielgruppen wie Schlamperei wirken Sie stellen Autoren, Redakteure und Künstler ein um das Chaos zu beseitigen.
Bei all dem Gerede darüber, dass KI Ihren Job übernimmt, a Stanford-Studie Bei der Untersuchung des Einflusses generativer KI auf die Beschäftigung wurde festgestellt, dass KI möglicherweise weniger in der Lage ist, stillschweigendes Wissen und eigenwillige Tipps und Tricks, die sich mit der Erfahrung ansammeln, zu ersetzen.
Das Urteilsvermögen und die Überprüfungsfähigkeiten eines professionellen Redakteurs fallen sicherlich in die Kategorie des stillschweigenden Wissens. Da Lehrer und Schüler lernen, sich wieder an Innovationen in der Kommunikation anzupassen, sollten Redaktionsfähigkeiten ganz oben auf der Liste stehen. Bearbeiten als nachträglicher Einfall – oder selbst an KI ausgelagert – wird für Medienunternehmen und Unternehmen, die mit ihren Inhalten aus der Masse hervorstechen und eine authentische Verbindung zum Publikum herstellen möchten, nicht ausreichen.
Eine gängige Richtlinie für den professionellen KI-Einsatz, die ich gesehen habe, ist „Mensch zuerst, Mensch zuletzt“. Dieser letzte Mensch? Es sollte ein Editor sein.





































