Orcid si ne registruje AI jako autor – místo toho ověřuje vaši identitu jako lidský výzkumník odpovědný za práci s pomocí AI. Hlavní vydavatelé (Elsevier, Springer Nature, ACS) vyžadují zveřejnění, když AI významně přispívá k výzkumu. Vždy: (1) Zkontrolujte konkrétní zásady časopisu, (2) zveřejněte použití AI v metodách/potvrzení s názvem nástroje a verzí, (3) ověřte přesnost veškerého obsahu vygenerovaného umělou inteligencí, (4) Udržujte svůj profil ORCID aktualizovaný se správně přiřazenými pracemi. Nikdy Uveďte AI jako autora nebo spoluautora.
Úvod: Proč na tom teď záleží
Exploze generativních nástrojů AI jako ChatGPT, Claude a Gemini vytvořila krizi atribuce v akademickém publikování. Kdo získá kredit – a odpovědnost –, když AI pomáhá při psaní, analýze dat nebo generování čísel? Odpověď spočívá v pochopení dvou samostatných, ale propojených systémů:
- orcid – Váš trvalý, jedinečný identifikátor výzkumníka
- Zásady atribuce AI – Pravidla vydavatele pro zveřejňování pomoci s umělou inteligencí
Záměna těchto systémů vede k vážným důsledkům: stažení papíru, obvinění z akademických pochybení a poškozená pověst. Tato příručka protíná hluk a kombinuje oficiální dokumentaci Orcid se zásadami vydavatelů, aby vám poskytla praktické a ověřené pokyny pro rok 2026.
Co je Orcid? (a co není)
Základy Orcid
Orcid (Open Researcher and Contributor ID) je bezplatný, trvalý 16místný identifikátor, který jednoznačně identifikuje výzkumníky Human. Berte to jako své akademické číslo sociálního pojištění – ale veřejné a navržené tak, aby vyřešilo „problém s nejednoznačností jména“, kde více výzkumníků sdílí identická jména.
Klíčová fakta:
- Zdarma k registraci na orcid.org
- perzistentní – zůstane s vámi po celý život
- Neproprietární – Komunitně řízené, nevlastní vydavatelé
- integruje s tisíci časopisů, sponzorů a repozitářů
Co není Orcid
Orcid je ne registrem pro nástroje AI, software nebo nelidské přispěvatele. Orcid ID exkluzivně identifikuje you, výzkumníka. Tento rozdíl je kritický, protože:
- Nástroje AI Nelze držet ORCID ID
- Nástroje AI Nelze být uvedeny jako autoři (prohlášení o pozici COPE)
- Váš záznam Orcid odkazuje na Vaše identitu s díly, kde vy zveřejňujete pomoc s umělou inteligencí
Jak ORCID pracuje se zveřejňováním AI
Když publikujete dokument s zveřejněným použitím AI:
- Journal požádá o vaše ORCID ID během odeslání
- Metadata publikovaného článku zahrnují vaše prohlášení ORCID + AI
- ORCID záznam (pokud je nakonfigurován) může automaticky importovat publikaci
- Váš profil zobrazuje práci s vaší AI zveřejňováním transparentně propojeným s vaší identitou
Tím se vytvoří auditní stopa: kdokoli může ověřit, že vy, konkrétní identifikovatelný výzkumník, použil AI konkrétním způsobem na konkrétním díle.
The Cope Foundation: Základní principy, které musíte znát
Výbor pro etiku publikací (COPE) stanoví globální standard pro etické publikování. Jejich stanovisko k AI (únor 2023) je jasné a nesmlouvavé:
1. AI nemůže být autorem
“Nástroje AI nemohou splňovat požadavky na autorství, protože nemohou převzít odpovědnost za předložené dílo.” — cope
Proč? Autorství vyžaduje:
- Odpovědnost za přesnost obsahu
- Schopnost podepisovat převody autorských práv
- Odpovědnost za etické dodržování
- schopnost reagovat na vzájemné hodnocení
Nástroje AI nesplňují všechna tato kritéria. Nemohou být žalováni za urážku na cti, nemohou nést odpovědnost za porušení autorských práv a nemohou podepisovat právní dokumenty.
2. Lidská odpovědnost je nesmlouvavá
“Autoři jsou plně odpovědní za celý obsah svého rukopisu, včetně jakéhokoli textu, obrázků nebo dat vytvořených nebo analyzovaných nástroji AI.” — Cope
Dopady:
- Jste právně odpovědní za halucinace AI (vymyšlené odkazy, nepravdivá data)
- Musíte ověřit každou citaci a fakta generovanou AI
- Nemůžete vinit AI z plagiátorství nebo etických porušení
3. Transparentnost prostřednictvím zveřejnění
“Autoři by měli být transparentní, když se používají chatboti, a poskytovat informace o tom, jak byly použity.” — cope
Kde prozradit:
- Sekce metod (pokud se AI používá pro analýzu/experimenty dat)
- Poděkování (pokud se AI používá pro psaní/úpravy)
- Věnováno sekci „Deklarace použití AI“ (pokud časopis vyžaduje)
Co zahrnout:
- Název nástroje (např. “ChatGPT-4O”)
- verze/datum (např. „Verze březen 2025“)
- konkrétní účel (např. „Pro kontrolu gramatiky a restrukturalizaci vět“)
- Použité výzvy (volitelné, ale doporučené pro reprodukovatelnost)
4. Rozlišujte asistované vs. generované
Ne každé použití AI vyžaduje zveřejnění. Konsensus mezi hlavními vydavateli:
| Typ použití AI | Vyžadováno zveřejnění? | Příklad |
|---|---|---|
| AI-generovaný obsah | ✅ Ano | Umělá inteligence píše celé odstavce, vytváří čísla, generuje data |
| AI-Asisted Editing | ⚠️ Někdy | Kontrola gramatiky s gramatickou AI, jazykové leštění |
| AI Brainstorming | ✅ Ano | Použití ChatGPT ke generování výzkumných otázek nebo nastínění struktury |
| Analýza dat AI | ✅ Ano | Spuštění statistické analýzy pomocí nástrojů s pomocí AI |
| Základní kontrola pravopisu | ❌ Ne | kontrola pravopisu Microsoft Word (Non-AI) |
Pravidlo: V případě pochybností prozraďte. Je lepší přehnaně odhalit, než skrýt použití AI, které později vyvolává obvinění ze špatného chování.
Zásady vydavatelů: Co se skutečně stane v roce 2026
Analyzovali jsme více než 70 zásad časopisů od ACS, Elsevier, Springer Nature, Taylor & Francis, Wiley, Nejm a další. Zde je to, co potřebujete vědět:
téměř univerzální požadavky
Všichni hlavní vydavatelé se shodují na:
- ✅ AI nemůže být autorem
- ✅ Lidští autoři zůstávají plně zodpovědní
- ✅ Zveřejnění požadované pro podstatné příspěvky
- ✅ Musí být uveden konkrétní název nástroje a verze
- ✅ Pokyny specifické pro časopis mají přednost před obecnými pravidly
Nuance specifické pro vydavatele
Publikace ACS
- Policy: osvědčené postupy AI ACS
- Požadavek: Zveřejnění v potvrzení nebo metodách
- Prohibice: obrázky generované umělou inteligencí v grafice obsahu
- Enforcement: Rukopisy s nezveřejněnou AI mohou být odmítnuty nebo staženy
Příroda Elsevier / Springer
- Policy: Springer Nature AI Policy
- Požadavek: Jasné prohlášení o nástroji AI, verzi a účelu
- Odpovědnost: Autoři musí ověřit všechny reference generované AI (míra halucinací ~40-50 % v chatgpt)
- Orcid Link: Oba vydavatelé důrazně vybízejí Orcid ID, aby ověřili lidské autory
IEE
- Policy: Pokyny pro obsah AI pro AI
- Požadavek: Zveřejnění v poděkování
- Specifičnost: Musí přesně uvádět, jak byla použita AI
- Obrázky: Údaje generované umělou inteligencí povoleny pouze s odhalením a ověřením člověka
nejem ai
- Policy: redakční zásady NEJM AI
- Požadavek: Orcid povinný pro korespondujícího autora
- Dual Disclosure: Jak v průvodním dopise, tak v rukopisu
- Lékařská specifičnost: Zvláštní zkoumání údajů o pacientech a klinických důsledků
pravidlo 30 % (a proč je zavádějící)
Některé instituce prosazují „pravidlo 30 %“ omezující obsah generovaný umělou inteligencí na ≤ 30 % článku. To je problematické:
- Žádná standardní metrika: Jak měříte „procento AI“? Žádný nástroj to spolehlivě nekvantuje.
- Zaměřuje se na kvantitu, nikoli na kvalitu: 5% kritická část generovaná umělou inteligencí může být věcnější než 30 % standardního textu.
- Rozrušení od skutečných problémů: Skutečným problémem je Nezveřejněno Použití AI, nikoli konkrétní procento.
Naše doporučení: Dodržujte zásady vašeho konkrétního časopisu. Pokud žádný neexistuje, zveřejněte jakýkoli podstatný příspěvek AI bez ohledu na procento.
Jak dokumentovat použití AI ve vašem profilu Orcid
Co jde do Orcid?
Váš záznam Orcid je Vaše výzkumného portfolia. Mělo by zahrnovat:
- Publikace, které jste napsal (s pomocí nebo bez pomoci AI)
- Granty a ocenění
- Historie zaměstnání
- Aktivita vzájemného hodnocení
Využití AI není samostatné pole ORCID. Místo toho se AI Disclosure objeví v samotném publikačním záznamu.
Krok za krokem: Propojení práce s umělou inteligencí s ORCID
- Zaregistrujte si Orcid na orcid.org (5 minut, zdarma)
- Během odesílání deníku zadejte své Orcid ID, když budete vyzváni
- Ujistěte se, že váš rukopis obsahuje Prohlášení o zveřejnění AI v příslušné části
- Po zveřejnění by se práce měla automaticky objevit ve vašem záznamu Orcid (prostřednictvím importu metadat)
- Verify: Přihlaste se do Orcid a potvrďte, že se práce objeví se správnými metadaty
Pro Tip: Mnoho časopisů (přes crossref nebo datacite) automaticky přenáší publikované články do vašeho profilu ORCID Pokud jste udělili povolení. Povolte „Automatické aktualizace“ v nastavení ochrany osobních údajů Orcid.
Kdy by použití umělé inteligence mělo (a nemělo) být zaznamenáno v dílech Orcid
| Scénář | Vyžaduje se vstup Orcid? | poznámky |
| Papír se zveřejněním AI v časopise | ✅ Ano (standardní) | Zveřejnění AI zůstává v metadatech publikace; Orcid jen odkazuje na práci |
| Nástroj AI používaný pouze pro osobní brainstorming | ❌ Ne | Není potřeba žádné zveřejnění, pokud AI nepřispívala k odeslané práci |
| Údaje generované umělou inteligencí se zveřejněním | ✅ Ano | publikace bude mít zveřejnění; orcid odkazy na to |
| Abstrakt konference zmiňující pomoc s umělou inteligencí | ✅ Ano | I neformální zmínky by měly být důsledně propojeny |
Spodní řádek: Váš profil Orcid sám o sobě nepotřebuje speciální příznak „použito AI“. Zveřejnění umělé inteligence patří do publikace a Orcid spojuje you s touto publikací.
Praktický průvodce: Napsání prohlášení o zveřejnění AI
Šablona: Standardní zveřejnění (Sekce potvrzení)
The authors acknowledge the use of [TOOL NAME] (Version [VERSION], [COMPANY], [DATE accessed]) for [SPECIFIC PURPOSE]. The AI tool was used to [DESCRIBE EXACTLY WHAT IT DID, e.g., "assist with language polishing and sentence restructuring"]. All AI-generated content was reviewed, edited, and verified for accuracy by the human authors. The authors take full responsibility for the final content of this article.
Příklad (ze skutečného článku z roku 2026):
The authors used ChatGPT-4o (OpenAI, May 2025 version) to assist with initial literature review summarization and to suggest alternative phrasings for complex technical concepts. All generated text was critically evaluated, fact-checked against original sources, and substantially rewritten by the authors. The AI was not used to generate original data, figures, or conclusions.
Šablona: Zveřejnění sekce metod (analýza dat)
Data Analysis Using AI Tools
Statistical analysis was performed using R (v4.3.1). Additionally, we employed Claude 3.5 Sonnet (Anthropic, April 2025) to assist in interpreting interaction effects in the regression models. The AI tool provided explanatory narratives that were reviewed and validated against the statistical output. Final interpretation and all conclusions are the sole responsibility of the human authors.
Co nepsat
- ❌ “ChatGPT pomohl napsat tento článek.” (příliš vágní)
- ❌ “AI byla použita pro úpravy.” (Neuveden žádný nástroj/verze)
- ❌ “Použili jsme AI ke zlepšení rukopisu.” (Žádné ověření)
- ❌ “Veškerý obsah AI byl ověřen.” (příliš obecné; specifikujte, co obnáší ověření)
Běžné chyby, které přivádějí výzkumníky do problémů
Na základě údajů o stažení za období 2025-2026 a zpráv COPE je zde 7 hlavních chyb:
1. V případě potřeby žádné zveřejnění
chyba: Použití AI pro podstatné psaní/analýzu, ale vynechání zmínky.
důsledek: obvinění ze špatného chování, odvolání z papíru, institucionální vyšetřování.
Oprava: Když si nejste jisti, zveřejněte. Lepší transparentní než líto.
2. Uvedení AI jako autora nebo spoluautora
chyba: “chatgpt” uvedena jako spoluautor na rukopisu.
důsledky: okamžité odmítnutí stolu; Možné doporučení etiky.
Oprava: AI nikdy nezíská autorský slot. Kvalifikují se pouze lidé, kteří splňují kritéria ICMJE.
3. Nepodařilo se ověřit reference AI
chyba: přijímání citací generovaných umělou inteligencí bez kontroly.
Důsledek: Vymyšlené odkazy (studie ukazují, že 40–50 % citací ChatGPT neexistuje).
Oprava: Každý zdroj poskytovaný AI musí být před odesláním lokalizován a ověřen ručně.
4. Nadměrné zveřejňování rutinního použití nástroje
chyba: zveřejnění základních nástrojů pro kontrolu gramatiky, které to nevyžadují (např. verze bez gramatiky bez funkcí umělé inteligence).
Důsledky: zbytečné zkoumání; odvádí pozornost od skutečných příspěvků.
Oprava: Zveřejňujte pouze nástroje AI, které významně přispěly k intelektuálnímu obsahu.
5. Nekontrolujte zásady specifické pro časopis
chyba: za předpokladu, že všechny časopisy dodržují stejná pravidla.
důsledek: porušení zásad; Odmítnutí rukopisu.
Oprava: Přečtěte si „Pokyny pro autory“ → „Etika“ nebo „Zásady AI“ pro časopis každý.
6. Nepochopení role Orcida
Mistake: Thinking Orcid je místo, kde “registrujete použití AI” odděleně od papíru.
důsledek: promarněné úsilí; Nesprávné zadání metadat.
Oprava: Zveřejnění AI jde v papír, nikoli přímo ve vašem profilu Orcid. Orcid jen odkazuje You na noviny.
7. Použití AI ke generování experimentálních dat nebo obrázků
chyba: Spuštění AI pro vytváření čísel nebo datových sad, které se zdají být skutečné.
důsledek: výroba dat (nejzávažnější forma pochybení); stažení; poškození kariéry.
Oprava: AI může pomoci s analyzační vizualizací (např. vytvořením grafu ze skutečných dat), ale nikdy generuje nezpracovaná experimentální data.
Vývojový diagram rozhodování: Musím zveřejnit použití AI?
Tento kontrolní seznam použijte před odesláním jakékoli akademické práce:
Q1: Přispěl nástroj AI k intelektuálnímu obsahu tohoto příspěvku?
– Ano → Pokračovat
– Ne (pouze základní formátování/kontrola pravopisu) → Není potřeba žádné zveřejnění
Q2: Co vlastně umělá inteligence udělala?
– Vygenerování textu/nápadů → Zveřejnit
– Vytvořit čísla nebo data → Zveřejnit (a ověřit eticky)
– Navrhnout reference → Ověřte každou referenci; Zveřejnit, pokud podstatné
– Vylepšení gramatiky/stylu → Zkontrolujte zásady časopisu (často nevyžaduje)
– přeložit text → Zveřejnit (zejména pokud není rodilý mluvčí)
Q3: Má váš cílový deník zásadu AI?
– ano → dodržujte ji Přesně (požadavky se liší)
– Ne → dodržujte pokyny COPE (zveřejněte příspěvky materiálu)
Q4: Můžete plně ověřit a převzít odpovědnost za vše, co AI produkuje?
– Ano → Pokračovat ve zveřejňování
– Ne → Proveďte ne odeslat, dokud nebude ověření dokončeno
Q5: Zahrnuli jste do svého rukopisu:
- [ ] Název nástroje + verze
- [ ] Specifický účel/případ použití
- [ ] Prohlášení, které autoři zkontrolovali a ověřili
- [ ] Přijetí plné odpovědnosti
Pokud je vše zaškrtnuto → Připraveno k odeslání se správným zveřejněním.
integrace se stávajícími znalostmi akademické integrity
Toto téma přímo souvisí s vaším chápáním:
- Mastery citace AI – když citujete samotnou AI (nejen ji používáte), platí jiná pravidla. Nástroje AI jsou citovány jako software, nikoli jako autoři.
- akademické whistleblowing – pokud máte podezření, že kolega neprozradil Použití umělé inteligence, může platit ochrana informátorů.
- Accidental Plagiarism – Nezveřejněná pomoc s umělou inteligencí může představovat plagiát, pokud je text generovaný umělou inteligencí kopírován bez přiřazení nástroje.
- Fair use in academia – Fair use může chránit omezenou citaci AI pro komentář/kritiku, ale zveřejnění zůstává zásadní.
- Obrázky generované AI – Úkoly programování generované umělou inteligencí vyžadují stejné principy zveřejnění jako text.
Key Takeaway: Attribution AI je součástí širší akademické integrity. Stejné etické zásady – poctivost, transparentnost, odpovědnost – platí, ať už se zabýváte plagiátem, výrobou dat nebo nezveřejněným použitím AI.
Výhled na rok 2026: Co se mění
Vznikající standardy
- Formulář pro zveřejnění strukturované umělé inteligence: Vydavatelé přecházejí k povinným, strukturovaným formulářům pro zveřejňování AI (nejen potvrzení volného textu). Očekávejte rozevírací seznamy pro výběr nástroje, čísla verzí a kategorie případů použití.
- Detekce AI jako standardní peer review: Recenzenti stále častěji používají detektory umělé inteligence ke kontrole v podání nezveřejněných AI. Vaše zveřejněné použití AI předchází tomuto vyšetřování.
- orcid + experimenty s metadaty AI: Orcid pilotuje integrace s prototypy registru AI, které by nakonec mohly sledovat používání nástrojů AI spolu s lidskými příspěvky (stále ve fázi výzkumu; dosud nebyly implementovány).
- Legislativa: Zákon o AI EU (2025) a nadcházející federální pravidla transparentnosti AI v USA mohou nařizovat zveřejňování AI v akademických publikacích, které dostávají veřejné financování.
Předpovědi pro 2027-2028
- Standardizovaná taxonomie: Pravděpodobné přijetí rozšíření úvěrové taxonomie pro příspěvky AI (v současné době diskutováno ve vydavatelských kruzích)
- Sledování provenience AI: Neměnné záznamy a výzev k použitým nástrojům AI podobné blockchainu
- Požadavky na pojištění: Časopisy mohou vyžadovat, aby autoři měli pojištění profesní odpovědnosti týkající se chyb souvisejících s umělou inteligencí
Akce nyní: Vytvořte si dobré návyky. zveřejňovat důsledně, pečlivě ověřovat, udržovat orcid proud.
Shrnutí & Akční kroky
zapamatované klíčové body
- ✅ orcid vás identifikuje – lidský výzkumník, nikoli nástroj AI
- ✅ AI nemůže být autor – Cope je v tom jednoznačný
- ✅ Zveřejnění je povinné pro materiální příspěvky AI
- ✅ Zůstáváte zodpovědní – za všechno, včetně chyb AI
- ✅ Zkontrolujte zásady časopisu – liší se a jsou specifické > generál
- ✅ Ověřte výstupy AI – halucinované reference zničí vaši důvěryhodnost
Okamžitý kontrolní seznam
Před odesláním jakékoli akademické práce:
- [ ] Přečtěte si zásady AI cílového časopisu (obvykle v části „Pokyny pro autory“ → „Etika“)
- [ ] Dokumentujte každý použitý nástroj AI: název, verze, datum, výzvy, účel
- [ ] Ověřte veškerý obsah generovaný umělou inteligencí: reference, data, čísla
- [ ] Návrh prohlášení o zveřejnění pomocí šablon výše
- [ ] Ujistěte se, že odpovídající autor má orcid ID a poskytne jej
- [ ] Potvrdit zveřejnění se objeví ve správné části rukopisu
- [ ] Uchovávejte záznamy o relacích AI po dobu alespoň 5 let (některé časopisy to vyžadují)
Po přijetí:
- [ ] Ověřte, že konečné důkazy zahrnují vaše zveřejnění AI beze změny
- [ ] Potvrďte, že ORCId ID je správně uvedeno v metadatech článku
- [ ] Zkontrolujte, zda se publikace objeví ve vašem záznamu Orcid (pokud je povolen automatický import)
- [ ] Aktualizujte životopis se správnou citací a zaznamenejte použití AI podle požadavků časopisu
Získání pomoci
- Podpora Orcid: help.orcid.org – Komplexní často kladené otázky
- Případy cope: publicationetics.org/cases – Vyhledejte v „AI“ precedentní případy
- Výzkumná kancelář vaší instituce: Obvykle poskytuje pokyny pro politiku AI specifické pro vaši univerzitu
- Redaktoři časopisů: V případě pochybností zašlete e-mailem redakci před s navrhovaným jazykem zveřejnění
Související návody
- ai citation mastery 2026: APA, MLA, Chicago pro chatgpt, claude, gemini
- Academic Whistleblowing: Jak hlásit plagiáty a nesprávné chování AI eticky
- Náhodný plagiát: co to je a jak se mu efektivně vyhnout
- Fair use in academia: jak legálně používat obsah generovaný AI v Výzkumné práce
- Obrázky generované AI: Detekce, citace & Akademická integrita
Zdroje & Další čtení
- cope. (2023). Autorství a nástroje AI. Výbor pro publikační etiku.
- orcid. používání Orcid k opětovnému zobrazení atribuce výzkumu.
- Publikace ACS. (2024). Osvědčené postupy a zásady umělé inteligence (AI).
- Cleland, J. (2025). kdy a jak zveřejnit použití AI v akademickém publikování. lékař.
- Springer příroda. Zásady časopisu – použití AI.
- Buriak, J. M. (2023). Nejlepší postupy pro používání AI při psaní vědeckých rukopisů. ACS nano.
- He, Y. a kol. (2026). Zásady AI akademických časopisů nedokážou omezit nárůst obsahu generovaného AI. pnas.
- icmje. Definování role autorů a přispěvatelů. Mezinárodní výbor redaktorů lékařských časopisů.
Detekce obsahu AI v netextových médiích: zvuk, video a deepfakes v akademické sféře
Audio, video a deepfakes generované umělou inteligencí představují v roce 2026 rostoucí výzvu k akademické integritě. Na rozdíl od textových detektorů umělé inteligence, jako je Turnitin, většina univerzit postrádá spolehlivé nástroje pro detekci syntetických médií. Současná řešení se zaměřují na ústní hodnocení, dokumentační dokumentaci a institucionální zásady, které zakazují škodlivé používání Deepfake. Studenti obvinění ze […]
Vzdálené proktorování a detekce AI: Obavy o soukromí a práva studentů 2026
Vzdálené proctoringové systémy umělé inteligence shromažďují rozsáhlá osobní data – video, zvuk, stisknutí kláves a aktivity obrazovky – během zkoušek, což vyvolává vážné obavy o soukromí a občanská práva. V roce 2026 se studenti setkávají s častými falešně pozitivními výsledky (zejména neurodivergentními a zahraničními studenty), rasovou diskriminací a diskriminací a nejasnými odvolacími procesy. Vaše práva […]
Detekce AI v laboratorních zprávách a vědeckém psaní: Specifické výzvy pro rok 2026
tl;dr: Nástroje pro detekci AI se potýkají s laboratorními zprávami a vědeckým psaním kvůli jejich formální, strukturované povaze, což vede k vysoké míře falešně pozitivních výsledků u studentů. V roce 2026 detektory často zaměňují sekce standardních metod, technický žargon a pasivní hlas za text generovaný umělou inteligencí. Vaše nejlepší obrana: Zdokumentujte svůj proces psaní, vyhněte […]