8 Minuty
Kdesi mezi zemědělským polem a kokpitem se ChatGPT učí, jak funguje skutečný svět — úkol po úkolu, zprostředkovaně přes práci freelancerů.
V zákulisí roste síť nezávislých odborníků, kteří umělé inteligenci dodávají vysoce specializované znalosti. Nejde o široká, obecná data, ale o odbornost, jakou byste očekávali od pedologa, komerčního pilota nebo lékaře. A tito experti jsou za svou práci dobře placeni.
Dokumenty, které přezkoumala redakce Business Insider, odhalují iniciativu spojenou s OpenAI — interně označovanou jako Projekt Stagecraft — kde tisíce freelancerů pomáhají formovat, jak AI chápe skutečné pracovní role. Koordinace prací probíhá přes Handshake AI, sanfranciský startup, který potichu přešel z kariérní platformy na významného hráče v ekonomice označování dat (data-labeling).
Učení AI myslet jako odborník
Toto není typická práce s tagováním dat. Dodavatelé jsou vyzváni, aby se vžili do role — například sestry specializované na praxi nebo hudebního ředitele — a vytvářeli realistické scénáře od základu. Píšou podněty (prompty), které kopírují skutečné pracovní postupy: připravují zprávy, analyzují datové sady nebo tvoří výstupy odpovídající očekáváním v daném oboru.
Obrátka? Všechno musí být vytvořeno tak, jako byste zadávali práci lidskému kolegovi, nikoli stroji. Žádné zjednodušování. Žádné „zjednodušení“ problematiky. Cílem je autentičnost — scénáře, které odrážejí skutečné profesní standardy a rozhodovací procesy.
Jeden z tréninkových průvodců to vysvětluje přímo: zaměřte se na práci založenou na znalostech, nikoli manuální práci. To znamená simulovat rozhodování, kritické myšlení a doménovou odbornost — dovednosti, které definují moderní profese. Takový přístup přesouvá trénink od všeobecné inteligence k profesionální důvěryhodnosti.
V praxi to vypadá tak, že přispěvatelé vytvářejí komplexní pracovní výstupy: od rozsáhlých zpráv a auditů po finanční tabulky vycházející ze specifických smluvních ujednání. Například jim může být zadáno, aby hráli roli finančního manažera divadla a sestavili mzdové výkazy na základě kolektivních smluv. Jindy zase zpracovávají desetistránkovou přehledovou studii lékařské literatury s odkazy, shrnutími a kritickým hodnocením zdrojů.
Tyto úlohy nejsou „hračky“ ani jednoduché testy. Jde o fragmenty skutečné práce — reálné workflowy, které vyžadují doménovou terminologii, pochopení kontextu a schopnost interpretovat důsledky rozhodnutí. Díky tomu model získává jemné nuance, které nelze snadno vyjádřit pomocí běžných značkovacích (annotation) úloh.
Techniky, které přispívají k tomuto učení, zahrnují: návrh scénářů založených na reálných protokolech, tvorbu iterativních promptů, kde jeden výstup slouží jako vstup pro následující krok, a role-playing, při němž dodavatel vystupuje jako odborník v komunikaci s modely. Důležité jsou rovněž metriky hodnocení kvality: přesnost odborných doporučení, konzistence terminologie, relevanci zdrojů a schopnost vygenerovat prakticky použitelný dokument.
V praxi se často kombinuje několik vrstev kontroly kvality. Nezávislý specialista ověří obsah, pak tým hodnotitelů zkontroluje srozumitelnost a formát, a nakonec proběhne interní audit u zadavatele, aby se ověřilo, že výstup odpovídá očekáváním profesionálů v terénu. Tato vícestupňová validace pomáhá snížit riziko, že model „bude znít chytře“, aniž by skutečně rozuměl konkrétnímu oboru.
Pro vzdělávání modelu se používají i postupy, které se blíží red-teamingu: odborníci z různých domén záměrně vytvářejí komplexní a problematické scénáře, které testují limity modelu. To umožňuje identifikovat slabiny v doménové znalosti a upravit tréninkové sady tak, aby model v budoucnu lépe zvládal podobné situace.
Pracovní síla rostoucí na tisíce
Odhaduje se, že v projektu je zapojeno kolem 3 000 až 4 000 freelancerů. Hodinové sazby začínají zhruba na 50 dolarech, ale u velmi specializované expertízy mohou sazby dramaticky stoupat — podle nabídek na platformě Handshake až k 500 dolarům za hodinu. Takový rozptyl odráží rozdíl mezi obecnými anotátory a vysokokvalifikovanými odborníky, jejichž znalosti jsou vzácné a obtížně nahraditelné.
Spektrum profesí je pozoruhodně široké. Patří sem komerční piloti, geovědci, lékárníci, zemědělci, personalisté i sochaři. Úniky dat ukázaly tabulku propojenou s projektem, která obsahovala stovky rolí napříč odvětvími spolu s kontaktními údaji kontraktorů — což vyvolalo tiché obavy ohledně expozice osobních údajů a důvěrných informací.
Každý příspěvek podléhá vícero vrstvám přezkoumání: nejprve interní kontrole, poté kontrole odborníky na danou doménu a nakonec kontrole samotné OpenAI. Cílem je zajistit, aby model nejen „zněl“ jako znalec, ale aby se choval jako člověk, který skutečně práci ovládá — včetně pochopení rizik, postupů a etických aspektů spojených s danou profesí.
Výsledek představuje posun v tréninku AI: méně o obecné inteligenci, více o profesionální důvěryhodnosti.
Současně v tom lze slyšet jistý paradox. Někteří přispěvatelé si jím jsou plně vědomi: svým tréninkem systémů de facto pomáhají budovat nástroje, které je mohou jednou nahradit. Tato napjatá dynamika mezi adaptací a obavou z nahrazení se stává častějším tématem v diskuzích o automatizaci na pracovním trhu.
Napětí navíc zesílilo po nedávných zprávách o sporech ohledně plateb. Několik kontraktorů tvrdí, že jim byly kráceny tisíce dolarů za dokončenou práci s odůvodněním porušení pravidel platformy — rozhodnutí, která podle nich byla vynesena bez možnosti odvolání. Handshake odmítl poskytnout veřejné vyjádření a OpenAI zůstává v této věci mlčelivá.
Takové případy otevírají otázky ohledně pracovní ochrany freelancerů, transparentnosti platebních podmínek a mechanismů pro řešení sporů. V odvětví, kde je práce často na dálku, s jednorázovými kontrakty a bez dlouhodobých zaměstnaneckých výhod, mohou takové incidenty ovlivnit důvěru mezi tvůrci obsahu a platformami, které jejich práci zadávají nebo využívají.
Zároveň je tu technologický imperativ: jak AI proniká hlouběji do specializovaných domén, poptávka po lidské odbornosti se nesnižuje — pouze se proměňuje. Místo hromadného sdílení anonymních dat se stále častěji vyžaduje přesná, auditovatelná a odborně ověřená data. To může vést k novým modelům odměňování expertů, standardům kvalifikace a certifikacím pro práci, která trénuje modely.
Regulační rámce a profesní asociace mohou v budoucnu definovat normy pro použití odborných vstupů v tréninku AI — zejména v citlivých oblastech jako zdravotnictví, právo nebo letectví. U profesí s vysokou mírou regulace budou pravděpodobně vyžadovány přísnější záruky: doložení kvalifikace přispěvatelů, dohled nad výstupy a mechanismy odpovědnosti za škody způsobené chybnými nebo zavádějícími doporučeními.
Technická stránka věci také vyžaduje pozornost. Kvalitní doménová data vyžadují pečlivé metadatování, sledovatelnost zdrojů a mechanismy pro verifikaci. V praxi to znamená, že úlohy pro freelancery musí obsahovat podrobné instrukce k citacím, referencím a standardům formátování, aby se snížilo riziko šíření nepřesností. Součástí procesu je i uchovávání auditních stop, které umožní zpětně sledovat, odkud pochází konkrétní znalost nebo rozhodnutí modelu.
Další technickou vrstvou je plánování aktualizací: doménové znalosti se mění — medicína se vyvíjí, právní předpisy se mění, zemědělské praktiky se upravují podle klimatu. To znamená, že modely vyžadují průběžné doplňování a revize, nikoli jednorázový trénink. Lidské zásahy tak zůstávají klíčové po delší dobu, i když konečný produkt může působit automatizovaně.
V neposlední řadě je důležité řešit ochranu dat a soukromí. Pokud experti vytvářejí scénáře vycházející z reálných případů, je nutné zajistit anonymizaci citlivých informací a dodržování zákonů na ochranu osobních údajů. Pro trust mezi odborníky a platformami je nezbytné jasné vymezení toho, jak budou data využita, kdo k nim bude mít přístup a jak budou chráněna.
Celkově sada znalostí vytvořená těmito freelancery může významně zvýšit užitečnost a bezpečnost AI v aplikacích, které vyžadují vysokou míru odbornosti. Zároveň ale přináší celou řadu pracovněprávních, etických a technických otázek, které bude nutné řešit na úrovni firemních politik i veřejné regulace.
Prozatím lidé, kteří jsou nejblíže samotné práci, formují podobu modelů. A tím, že do nich promítají své znalosti a postupy, zároveň nevědomky spoluutvářejí budoucnost svých vlastních profesí — jak z hlediska rozvoje nástrojů, tak z hlediska toho, které úlohy zůstanou lidské a které bude možné automatizovat či asistovat pomocí AI.
Zanechte komentář