tl;dr: Akademičtí vydavatelé zachytili v roce 2025 129 článků generovaných umělou inteligencí v jednom časopise, ale detekce zůstává nedokonalá. Hlavní vydavatelé (Elsevier, Wiley, Springer) nyní vyžadují zveřejnění umělé inteligence, ale 21 % samotných recenzí je generováno umělou inteligencí. Falešná pozitiva neúměrně ovlivňují nerodilé anglicky mluvící. Redaktoři spoléhají na kombinaci detekčních nástrojů (turnitin, copyleaks), rukopisných forenzních věd (historie verzí, ověření citací) a lidské odbornosti. Konsensus: Skóre detekce umělé inteligence jsou signály rizika, nikoli důkaz – před obviněním je nezbytné potvrzování důkazů.
Úvod: Krize rukopisu AI je tady
Svět vědeckých vydavatelství čelí bezprecedentní výzvě: Rukopisy generované AI zaplavující recenzované časopisy. V roce 2025 jeden časopis stáhl 129 článků – většinou z jedné instituce – poté, co objevil rozšířený obsah generovaný umělou inteligencí [kwglobal.com]. Nature uvedl, že desítky tisíc z 2025 publikací mohou obsahovat neplatné citace s AI halucinací [Nature, 2026].
Ale problém sahá hlouběji než autoři předkládající články psané umělou inteligencí. Šokující studie zjistila, že 21 % vzájemného hodnocení na ICLR (Mezinárodní konference o reprezentacích učení) samy vytvořila AI [Manusights, 2025]. To vytváří paradox: AI je jak kontaminant, tak nástroj, který ji má zachytit.
Pro redaktory, recenzenty a výzkumníky, kteří se v roce 2026 pohybují v tomto prostředí, již není volitelné pochopení toho, jak odhalit rukopisy generované umělou inteligencí – a zároveň se vyhýbat falešným poplachům, které poškozují legitimní učence. Tato příručka syntetizuje aktuální zásady vydavatelů, metodologie detekce a etické rámce, které vám pomohou zachovat integritu výzkumu v éře AI.
Jak vydavatelé detekují rukopisy generované umělou inteligencí: Vícevrstvý přístup
Přední vydavatelé se nespoléhají na jedinou metodu. Kombinují technologické nástroje, rukopis forenzní a lidskou odbornost v třívrstvém screeningovém procesu.
Úroveň 1: Automatizované skenery detekce AI
Vydavatelé integrují nástroje pro detekci AI přímo do svých systémů pro předkládání rukopisů. Mezi nejběžnější platformy patří:
- Turnitin AI Detection: Integrováno do redakčních pracovních postupů; Vlajky textu se zmatkem/výbuchem vzory charakteristické pro LLM
- CopyLeaks AI Detector: Prohlašuje 94-97% přesnost se silnou vícejazyčnou podporou
- Originality.ai: Používá se některými vydavateli pro komplexní skenování
- gptZero: příležitostně se používá pro předběžné screening kvůli transparentnímu rozpadu
Kritické omezení: Všechny nástroje mají falešně pozitivní míru 1-3% na hrubém lidském psaní a přesnost klesá na 60-80% na upraveném obsahu AI [Benchmark Study, 2026]. Nerodilé anglické psaní čelí 2-5x vyšším falešně pozitivním mírám [Stanford HAI].
Úroveň 2: Forenzní rukopis
Kromě detektorů umělé inteligence zkoumají zkušení redaktoři:
Ověření citací
- Nástroje AI, jako je ChatGPT často Halucinátní citace – Vytváření neexistujících článků, autorů nebo DOI. Nature Found desítky tisíc publikací z roku 2025 obsahují neplatné odkazy generované umělou inteligencí [Nature, 2026].
- Redaktoři kontrolují citace proti CrossRef, PubMed, Google Scholar. Chybějící DOI nebo neshodné tituly označují potenciální generování AI.
Analýza historie verzí
- Autoři jsou stále častěji žádáni, aby předkládali Dokumentaci procesu psaní: Návrhy, osnovy, protokoly revizí.
- Náhlé posuny ve stylu psaní mezi sekcemi naznačují více autorů nebo pomoc s umělou inteligencí.
Figure/Image Forensics
- Postavy generované umělou inteligencí často obsahují jemné artefakty. Některé časopisy nyní vyžadují pro všechny obrázky původní nezpracovaná data.
- Nástroje pro detekci AI pro obrázky (jako moderování úlu) označují grafiku generovanou umělou inteligencí.
Zkouška metadat
- Časová razítka pro odeslání: Kompletní rukopis nahraný během několika minut je podezřelý.
- Vlastnosti souboru: Data vytvoření/úpravy, která nejsou v souladu s nárokovaným časovým osám zápisu.
Úroveň 3: Human Expertise & Rozsudek recenzentů
Žádný nástroj nenahrazuje zkušený úsudek recenzentů. červené vlajky, které spouštějí hlubší vyšetřování:
- Neobvyklé konzistence formátování: Text generovaný umělou inteligencí má často dokonalou strukturu, ale postrádá přirozené variace
- Obecná prohlášení: Umělá inteligence směřuje k vágním, široce použitelným tvrzením bez konkrétních nuancí
- Nekonzistentní hlas: Posuny v úrovni slovní zásoby, složitosti vět nebo terminologie
- Topic-nespecifické znalosti: Uvádí tvrzení, která jsou technicky správná, ale postrádají hloubku specifické pro dané pole
Zásady AI vydavatelů: Co vyžadují hlavní časopisy v roce 2026
Elsevier: Vyžaduje se zveřejnění, AI nemůže být autorem
Elsevier’s Policy uvádí:
- AI nelze uvést jako autor (nesplňuje kritéria autorství)
- Zveřejnění povinné: Autoři musí specifikovat použité nástroje AI a jejich aplikaci (psaní, editace, analýza dat)
- Zodpovědnost zůstává u autorů: Obsah generovaný umělou inteligencí musí být ověřen z hlediska přesnosti a správné citace
- Recenzenti mohou používat AI: ale musí zveřejnit a je zakázáno nahrávat rukopisy do externích nástrojů AI kvůli důvěrnosti
Zdroj: Elsevier generativní zásady AI
Wiley: Výslovné prohlášení před předložením
Wileyho přístup:
- Požadováno prohlášení v průvodním dopise
- AI pouze pro úpravy jazyka obvykle nevyžaduje zveřejnění, ale generování obsahu ano
- Journals si mohou vyžádat dokumentaci ukazující, jak byla použita AI
- Recenzentům je povoleno používat AI pro hodnocení kvality, ale ne pro generování obsahu recenzí
Zdroj: Wiley AI Guidelines
Springer Nature: Monitorování a vyvíjející se zásady
Pozice Springer Nature:
- AI nemůže být autor (v souladu s COPE)
- Požadovaná transparentnost: Pomoc s umělou inteligencí musí být zveřejněna v rukopisu
- Nástroje AI pro peer review: Nasadili systémy doporučení recenzentů AI, ale zakazovali obsah recenzí generovaných umělou inteligencí
- Policy se budou aktualizovat Jak se krajina vyvíjí
Zdroj: Springer Nature AI Policy
COPE (Výbor pro etiku publikací): Nadace
Základní pokyny Cope:
- Nástroje AI postrádají odpovědnost: nemohou převzít odpovědnost za předloženou práci, takže nemohou být autoři
- Transparentnost je prvořadá: Autoři musí zveřejnit použití AI
- Editoři by měli mít jasné zásady: Časopisy potřebují explicitní prohlášení o použití AI
- Human Review zůstává zásadní: Výstupy detekce AI by neměly být jediným základem pro rozhodnutí
Zdroj: Pozice cope na AI a autorství
Falešně pozitivní problém: Proč je detekce těžší, než se zdá
disparita ESL/nepůvodního anglického spisovatele
Detektory umělé inteligence systematicky označují nepůvodní anglické psaní vyšší rychlostí. Studie Stanford HAI zjistila, že studenti ESL čelí 30-40 % vyšším falešně pozitivním mírám kvůli vzorcům psaní, které se překrývají s textem generovaným AI [Stanford HAI].
Proč se to děje?
- Nerodilí autoři často používají jednodušší, předvídatelnější slovní zásobu
- Vzorové větné struktury jsou běžné při psaní v druhém jazyce
- Konzervativní akademické frázování (vyhýbání se idiomatickému jazyku) spouští detektory zmatku
Důsledek: Mezinárodní výzkumníci jsou vystaveni nepřiměřenému riziku falešných obvinění – formy systémové zaujatosti, kterou si některé časopisy začínají uvědomovat.
“Upravená slepá skvrna AI”
Všechny detektory vynikají v zachycování surového, neupraveného výstupu AI (přesnost 90 %+). Ale scénáře reálného světa jsou složitější:
- Humanem upravený obsah AI: Výzkumník používá ChatGPT ke generování návrhu a poté jej rozsáhle reviduje. Přesnost detekce klesá na 60-80 % [Scribbr, 2026].
- Hybridní psaní: Míchání lidských příspěvků a příspěvků AI napříč sekcemi vytváří nekonzistentní vzory, které mate detektory.
- řetězování nástrojů: Použití více nástrojů AI (chatGPT pro kreslení, Claude pro leštění, gramatika pro gramatiku) vytváří text, který se vyhýbá detekci jednoho nástroje.
Nesouhlas mezi nástroji
Různé detektory se zřídka shodují na hraničních případech. Rukopis označený gptzero (70% AI) může vykazovat 15 % na turnitinu. Tato nekonzistence podtrhuje, proč by žádný nástroj neměl určovat výsledky.
Pokyny recenzentů: Co by měli redaktoři komunikovat
Když se objeví obavy o obsah generovaný umělou inteligencí, redaktoři potřebují pro své recenzenty jasné protokoly. Na základě osvědčených postupů pro rok 2026:
Pro detekci AI v podáních
- Použijte více nástrojů pro detekci, pokud je k dispozici – neshoda znamená nejistotu
- Zaměřte se na příznaky s vysokou spolehlivostí (>60% skóre); Potlačit obavy s nízkou spolehlivostí
- Dokumentace procesu požadavku: Obrysy, návrhy, historie verzí, poznámky k výzkumu
- Ověřte podezřelé citace: křížová kontrola, jména autorů, názvy časopisů
- Assess Domain Knowledge Hloubka: Text generovaný umělou inteligencí často postrádá jemný přehled specifický pro dané pole
- Hledejte nepřirozenou konzistenci: dokonalé struktury odstavců, předvídatelné přechody, absence „nepořádného“ myšlení
za vyhýbání se falešným obviněním
- Nikdy se nespoléhejte pouze na skóre detektoru – je to screeningový nástroj, nikoli důkaz
- Zvažte ESL/Non-Native Status Pokud je styl psaní vzorový; Požadavek na psaní vzorků
- Účet pro těžké úpravy: Leštěná próza může spouštět příznaky AI
- Žádost o ústní obhajobu nebo revizi: Požádejte autora, aby reagoval na konkrétní obavy; Skuteční autoři mohou svou práci obhájit
- Uplatněte standard „Beyond Reasonable Doubt“ v případech s vysokými sázkami; Nejistota detekce AI zvýhodňuje autora
- Dokument vše: Vaše hodnocení by mělo citovat konkrétní pasáže a úvahy
Zdroj: Na základě pokynů COPE a případových studií vydavatelů [publicationethics.org]
Případové studie: Detekce umělé inteligence v akci (a náklady na chyby)
Případ 1: retrakce 129-papírové vlny
Na začátku roku 2025 časopis zjistil, že 129 článků – většinou z Saveetha University v Chennai, Indie – obsahovalo text generovaný umělou inteligencí a nesprávně citované odkazy. Vyšetřování odhalilo:
- Systematické použití chatgpt pro generování rukopisů
- Hallucinace Citations, které nebylo možné ověřit
- Styl uniformního psaní napříč údajně nezávislými autory
- Institucionální škála: Problémem nebyli izolovaní jedinci, ale výzkumná kultura zahrnující AI bez odhalení
Výsledek: Všech 129 dokumentů bylo staženo. Univerzita čelila sankcím od mnoha akademických orgánů.
Případ 2: Expozice vzájemného hodnocení AI
ICLR (Mezinárodní konference o reprezentacích učení) zjistila, že 21 % recenzí předložených v roce 2025 bylo generováno AI [Manusights, 2025]. Detekce přišla z:
- Stylometrická analýza: Recenze vykazovaly nízkou zmatenost a jednotnou dávku
- Vzorce obsahu: Obecný jazyk, nedostatek konkrétních odkazů na rukopis
- Temporal Clustering: Více recenzí AI odeslaných v krátkých časových oknech
Konference implementovala nové ověření recenzenta: vyžadující odeslání vzorků psaní a zákaz recenzí generovaných umělou inteligencí.
Případ 3: Falešně pozitivní, který téměř stál PhD
Nerodilý anglicky mluvící doktorand na britské univerzitě předložil kapitolu diplomové práce, kterou Turnitin označil na 45% AI. student:
- Měl Žádné zapojení do AI
- Posedlý Extenzivní proces psaní (187 verzí dokumentů Google za 8 měsíců)
- byl zachráněn právy ve stylu FERPA k odhalení důkazů
Odvolací proces univerzity po přezkoumání historie verzí zrušil zjištění. Student absolvoval, ale stres a zpoždění byly značné.
Lekce: Důkazy z procesu jsou konečnou obranou proti falešným poplachům.
Osvědčené postupy pro redaktory časopisů v roce 2026
Před podáním
- Zveřejněte explicitní zásady AI na webu časopisu, pokrývající:
- Zda je použití AI povoleno (bez/bez zveřejnění)
- Požadovaný formát zveřejnění (které nástroje, pro jaký účel)
- důsledky Nezveřejnění
- Pravidla používání AI recenzent
- Integrujte detekci umělé inteligence do systému odesílání, ale s jasnými prahovými hodnotami:
- Potlačit příznaky s nízkou spolehlivostí (<20 %)
- Vyžadovat kontrolu člověka před jakýmkoli obviněním
- Vlajka pro ověření, ne disciplína
- Vyškolte redakci o omezeních detektorů, falešných poplachech a rizikech zkreslení
Během vzájemného hodnocení
- Přidejte otázky související s AI do formulářů recenzentů:
- “Vykazuje rukopis známky textu generovaného umělou inteligencí?”
- “Pokud ano, uveďte prosím konkrétní pasáže”
- “Použili jste při přípravě nástroje AI?” vaše recenze? (vyžaduje se zveřejnění)”
- Zakazujte recenzentům nahrávání rukopisů do externích nástrojů AI (porušení důvěrnosti)
- Některé časopisy umožňují on-premise pomoc s AI s předchozím povolením
- Požadavek na psaní dokumentace procesu Pro vysoce rizikové příspěvky:
- Verze draftu s časovými razítky
- Poznámky k výzkumu a osnovy
- Protokoly řízení verzí (Git Commits)
- Ověřte citace jako standardní krok, zejména pro reference, které se zdají neobvyklé nebo příliš dokonalé
Když se objeví obavy
- Nikdy nekonfrontujte pouze na základě skóre detektoru – nejprve shromážděte potvrzení důkazů
- Požádejte o odpověď autora písemně a poskytněte jim konkrétní označené pasáže
- Požádejte o důkazy z procesu: “Poskytněte prosím své návrhy, osnovy a poznámky k výzkumu tohoto rukopisu”
- Zvažte ústní vyšetření pro vážná obvinění – opravdoví autoři mohou o své práci informovaně diskutovat
- Uplatněte standard „Beyond Reasonable Doubt“ v případech s vysokými sázkami; Nejistota detekce AI zvýhodňuje autora
- Důkladně zdokumentujte vyšetřování, bez ohledu na výsledek
Etické úvahy: Vyvažování integrity a spravedlnosti
riziko nadměrné kontroly
Agresivní detekce umělé inteligence může selhat:
- Mrazivý efekt: Výzkumníci se vyhýbají používání legitimních nástrojů AI pro kontrolu gramatiky nebo překlad
- Diskriminace: Spisovatelé ESL čelí nepřiměřené kontrole
- Ztráta důvěry: Autoři vnímají časopisy spíše jako protivníky než jako podpůrné
riziko nedostatečné policie
Neschopnost detekovat rukopisy generované umělou inteligencí podkopává vědu:
- Vyráběná data/citace Znečišťující literatura
- Pověření inflace: Tituly získané prací zpracované umělou inteligencí znehodnocují legitimní úspěchy
- Eroze důvěry: Důvěra veřejnosti ve vědu klesá, když je podvod rozšířen
Nalezení rovnováhy
Konsensus od COPE, hlavních vydavatelů a odborníků na integritu výzkumu:
Detekce AI je screeningový nástroj, nikoli verdikt. Měl by zahájit šetření, nikoli jej uzavřít. Břemeno zůstává na deníku, aby prokázal pochybení s potvrzujícími důkazy.
Vznikající hrozba: Recenze generované umělou inteligencí
Zvláště zákeřný problém: Recenzenti používající AI k psaní recenzí. Detekční strategie:
- Stylometrický screening: Použijte detektory AI k recenzi textu (s příslušným souhlasem)
- Kontroly specifičnosti obsahu: Recenze AI bývají obecné; Lidské recenze odkazují na konkrétní prvky rukopisu
- Analýza načasování: Recenze dokončené během několika minut, nikoli hodin/dny jsou podezřelé
- Požadovat prohlášení recenzenta: Některé časopisy se nyní ptají „Použili jste při přípravě této recenze?“ s povinným zveřejněním
Časopisy jako Miccai výslovně zakazují použití AI v recenzích: „Nahrávání, kopírování nebo popis obsahu rukopisu do nástroje AI, který je mimo systém časopisu, není povoleno“ [MICCAI Reviewer Guidelines].
Budoucí výhled: Co bude dál pro detekci AI ve publikování?
1. Posun z detekce na procesní forenzní
Progresivní časopisy se vzdalují od „prahů skóre AI“ směrem k Ověření procesu psaní:
- Vyžadování Historie verzí Od odeslání
- Požádejte o výzkumné protokoly a časová razítka draftu
- Začlenění ústní obrany pro sporná podání
2. AI-odolný design vzájemného hodnocení
Některé časopisy přepracovávají recenzní úkoly:
- Personalizované výzvy: Kontrolní otázky spojené s konkrétními prvky rukopisu viditelné pouze pro přidělené recenzenty
- Časované recenze: Krátká okna omezují příležitost pro pomoc s umělou inteligencí
- Interaktivní kontrolní platformy: Živá anotace a diskuse, které AI nemůže replikovat
3. Vodoznaky a sledování původu
Budoucí rukopisy mohou nést kryptografické vodoznaky označující použití nástroje AI (podobně jako detektory obrazu AI). Orgány standardů zkoumají povinná metadata zveřejnění.
4. Regulační tlak
Zákon o AI a podobné předpisy mohou vydavatelům ukládat Právní povinnosti za účelem ověření pravosti rukopisu s tresty za nedodržení.
Shrnutí: Prováděcí doporučení
Pro redaktory časopisů
- Adoptujte vícevrstevnou detekci: Nástroje + Forenzní věda + Lidský úsudek
- Nikdy disciplína založená pouze na skóre detektoru—Vyžadujte potvrzení
- Zveřejněte jasné zásady AI, které vyvažují integritu se spravedlností
- Vyškolte personál o falešně pozitivních rizicích, zejména předpojatosti ESL
- Požadavky na zveřejnění AI Reviewer
- Požádejte o důkaz procesu psaní, když se objeví obavy
Pro recenzenty
- Při přípravě recenze zveřejněte jakékoli použití AI
- Hledejte červené vlajky: Obecný jazyk, citační halucinace, nepřirozená konzistence
- Používejte detektorové nástroje jako vodítko, nikoli verdikty
- Požádejte autory o důkazy procesu, pokud máte podezření na AI
- Nikdy nenahrávejte rukopisy do externích nástrojů AI (porušení důvěrnosti)
Pro autory
- Zveřejnit použití AI transparentně (většina vydavatelů to vyžaduje)
- Udržujte dokumentaci procesu psaní: Návrhy, obrysy, historie verzí
- Ověřte každou citaci generovanou umělou inteligencí – nedůvěřujte výstupu umělé inteligence slepě
- Před odesláním pochopte zásady svého deníku
- Pokud jste obviněni, odpovězte důkazy: Vaše protokoly procesů jsou vaší obhajobou
Související návody
- benchmark detekce AI 2026: Porovnejte Turnitin, GptZero, Copyleaks Accuracy and False Pozitivní sazby
- False Positive AI Detection: Student Defense Strategies: Jak reagovat, pokud je nesprávně označeno (platí pro výzkumníky taky)
- Jak se odvolat proti nálezům detekce AI: Průvodce krok za krokem pro převrácení zjištění nesprávného chování
- AI Citation Mastery 2026: Správné formáty citací pro práci s pomocí AI v APA, MLA, Chicago
- dokumentování vašeho procesu psaní: proaktivní Shromažďování důkazů pro obranu autorství
Další kroky: Posílení integrity vašeho deníku
Problém s psaním AI se zesílí, než se zlepší. Zde je to, co můžete implementovat Tento týden:
- Zkontrolujte zásady AI vašeho časopisu – je explicitní, vyvážený a viditelně zveřejněný?
- Přidejte detekci AI do svého redakčního kontrolního seznamu s jasnými prahovými hodnotami a protokoly odezvy
- Vyškolte redaktory a recenzenty o falešně pozitivních rizicích, zejména předpojatosti ESL
- Požadavky na dokumentaci pilotního procesu pro vysoce riziková podání
- Připojte se k Cope nebo podobným etickým organizacím pro průběžné pokyny
Cílem není eliminovat AI z vědecké komunikace – je to zajistit transparentnost, odpovědnost a spravedlnost při použití AI. Časopisy, které tuto rovnováhu dosáhnou, si zachovají důvěru a zároveň přijmou výhody technologie.
Odkazy a zdroje:
- Scuderi, G. R. (2026). Výzvy s umělou inteligencí ve vědeckém psaní. Lékařské psaní.
- příroda. (2026). Halucinace citace znečišťují vědeckou literaturu. příroda.
- He, Y. a kol. (2026). Zásady AI akademických časopisů nedokážou omezit nárůst akademického psaní s umělou inteligencí. pnas.
- cope. (2023). Autorství a nástroje AI. Výbor pro etiku publikací.
- Elsevier. (2026). Generativní zásady AI pro časopisy.
- Wiley. (2026). Pokyny pro AI pro výzkumníky.
- Springer příroda. (2026). Politika umělé inteligence.
- Laffaye, T. A. a kol. (2026). Doporučení týkající se umělé inteligence pro psaní rukopisů. PMC.
- Pohledy na rukopis. (2026). AI Peer Review 2026: Proč to nezmizí.
- Stahovací hodinky. (2026). Rok ve výzkumu Integrita: AI-generované rukopisy.
- Kabel, S. (2025). Bibliografie výzkumných podvodů s genai z roku 2025.
- Saqr, K. a kol. (2026). Rozbor retrakce papíru související s umělou inteligencí napříč zeměmi.
- Manusights. (2026). Nástroje pro kontrolu rukopisů AI porovnány.
- Scribbr. (2026). Nejlepší AI detektory pro přesnost.
- koreth. (2025). Falešně pozitivní v příručce pro detekci AI.
- Stanford Hai. (2026). Zkreslení detekce AI proti nerodilým anglickým spisovatelům.
Všechny externí odkazy ověřené přístupné od dubna 2026.
Detekce obsahu AI v netextových médiích: zvuk, video a deepfakes v akademické sféře
Audio, video a deepfakes generované umělou inteligencí představují v roce 2026 rostoucí výzvu k akademické integritě. Na rozdíl od textových detektorů umělé inteligence, jako je Turnitin, většina univerzit postrádá spolehlivé nástroje pro detekci syntetických médií. Současná řešení se zaměřují na ústní hodnocení, dokumentační dokumentaci a institucionální zásady, které zakazují škodlivé používání Deepfake. Studenti obvinění ze […]
Vzdálené proktorování a detekce AI: Obavy o soukromí a práva studentů 2026
Vzdálené proctoringové systémy umělé inteligence shromažďují rozsáhlá osobní data – video, zvuk, stisknutí kláves a aktivity obrazovky – během zkoušek, což vyvolává vážné obavy o soukromí a občanská práva. V roce 2026 se studenti setkávají s častými falešně pozitivními výsledky (zejména neurodivergentními a zahraničními studenty), rasovou diskriminací a diskriminací a nejasnými odvolacími procesy. Vaše práva […]
Detekce AI v laboratorních zprávách a vědeckém psaní: Specifické výzvy pro rok 2026
tl;dr: Nástroje pro detekci AI se potýkají s laboratorními zprávami a vědeckým psaním kvůli jejich formální, strukturované povaze, což vede k vysoké míře falešně pozitivních výsledků u studentů. V roce 2026 detektory často zaměňují sekce standardních metod, technický žargon a pasivní hlas za text generovaný umělou inteligencí. Vaše nejlepší obrana: Zdokumentujte svůj proces psaní, vyhněte […]