Zpět na seznam Od zvědavosti k důvěře: jak lidé přijímají humanoidní roboty

Od zvědavosti k důvěře: jak lidé přijímají humanoidní roboty

Václav Kubáček
Václav Kubáček
Publikováno 9. března 2026

Humanoidní roboti v lidech vyvolávají emoce, které se u běžné automatizace objevují mnohem méně. A není to chyba lidí ani „nepochopení technologie“. Je to signál, že jsme se dostali k typu stroje, který se dotýká našeho prostoru, našich zvyklostí a někdy i identity. V praxi se totiž ukazuje, že přijetí humanoidů nebude stát jen na tom, co technicky dokážou, ale na tom, zda jim lidé budou rozumět, zda jim budou věřit a zda budou mít pocit, že se s nimi jedná férově.

Tento článek je o sociálním a lidském rozměru humanoidní robotiky. Ne o sci-fi představách, ne o přehnaných slibech, ale o realitě: o tom, proč se lidé humanoidů bojí, kdy jsou obavy racionální, jak se buduje důvěra, co se mění v práci lidí, jaké otázky otevírá soukromí, odpovědnost a etika – a proč je férová komunikace firem zásadní, pokud má technologie skutečně pomáhat a ne rozdělovat.

Proč strach není selhání, ale přirozená reakce

Když se řekne „strach z robotů,“ mnoho lidí si vybaví přehnané filmové scény. Jenže v praxi je strach často mnohem prozaičtější. Nejde o to, že by si většina zaměstnanců představovala vzpouru strojů. Spíše je to směs tří pocitů: neznáma, ztráty kontroly a nejistoty odpovědnosti. Neznámo je jednoduché: člověk neví, co robot udělá příště. U běžného průmyslového robota je neznámo relativně malé, protože je uzavřený v kleci, dělá pořád totéž a jeho pohyb je očekávatelný. Humanoid naopak typicky funguje v prostoru, kde se pohybují lidé, a jeho chování je proměnlivější. I když je objektivně bezpečný, subjektivně může působit nepředvídatelně.

Velmi silná je také otázka odpovědnosti. „Kdo za to ručí?“ je jedna z prvních vět, kterou v praxi uslyšíte, jakmile se začne mluvit o autonomnější technologii. A není to jen právní detail. Je to psychologický základ důvěry. Dokud lidé nevědí, kdo nese zodpovědnost a jak se bude postupovat při incidentu, budou mít tendenci si vytvářet vlastní scénáře – často horší, než jaká je realita.

Je užitečné si přiznat, že strach někdy není jen strach z „robota,“ ale strach ze změny prostředí, v němž se člověk pohybuje s jistotou. Jakmile se v prostoru objeví nový aktér, mění se pravidla pozornosti. Člověk začíná více hlídat okolí, více přemýšlet, kde stát, a méně se spoléhá na automatické návyky. To je vyčerpávající – a vyčerpání se snadno zamění za odpor.

A pak je tu ještě jeden důležitý zdroj obav: zkušenost s přehnanými sliby z médií. Lidé slyší velká prohlášení, vidí efektní videa a pak přijde realita, kde je technologie užitečná, ale zároveň omezená, někdy pomalejší, někdy „divně“ nejistá. Když se tato propast nepojmenuje, strach se míchá s cynismem: „Zase něco, co nám někdo prodává shora.“

Jak vzniká důvěra: předvídatelnost, transparentnost a jasné hranice

Důvěra ve stroje nevzniká tím, že o ní mluvíme. Vzniká zkušeností. A zkušenost se skládá z opakovaných okamžiků, kdy člověk vidí, že systém se chová srozumitelně, drží se pravidel a v krizové situaci se zachová bezpečně. U humanoidů je to náročnější právě proto, že působí „živě“. O to víc je potřeba opřít důvěru o tři věci: předvídatelnost, transparentnost a jasné hranice.

Předvídatelnost neznamená, že humanoid dělá pořád to samé. Znamená, že člověk umí odhadnout, jaký typ chování od něj může čekat v určité situaci. Pomáhá, když robot dává dopředu signály: zpomalí před člověkem, naznačí záměr pohybu, nevystřelí rukou nečekaným směrem, nesnaží se protlačit kolem. V praxi to často stojí na drobnostech: plynulost trajektorie, konzistentní rychlost, srozumitelný osobní prostor.

Transparentnost je schopnost vysvětlit, co humanoid dělá a proč. Ne ve smyslu detailů algoritmů, ale ve smyslu provozní srozumitelnosti. Kde je povolený prostor pohybu? Co je jeho úkol? Co je jeho limit? Co udělá, když do něj někdo vstoupí? Kdo ho může zastavit a jak? Když lidé tyto věci neznají, začnou si je doplňovat představami. A představivost je u humanoidů často dramatičtější než realita.

Jasné hranice jsou možná nejvíc podceňovaná část. Lidé jsou ochotní přijmout i složitý systém, pokud vědí, kde končí. Když se říká „on zvládne skoro všechno“, není to pro lidi uklidňující. Právě naopak. „Skoro všechno“ znamená „nevím, kdy a kde to selže“. Paradoxně tedy důvěru zvyšuje, když firma otevřeně řekne: tady humanoid pomáhá, tady ještě ne, tady ho nepoužijeme a tady musí být vždy člověk. Důvěra roste z omezení, která dávají smysl.

Je to podobné jako u lidské spolupráce: nejlépe se pracuje s kolegou, který zná své kompetence, umí říct „tohle nezvládnu“ a nepředstírá. U humanoidů se toto určení hranic musí stát součástí návrhu i komunikace.

Proč záleží na jazyce, designu a chování robota

Technologie se neprosazuje jen parametry. Prosazuje se i tím, jak o ní mluvíme. A u humanoidů je jazyk mimořádně silný, protože slova okamžitě nastavují očekávání. Když firma řekne „nasazujeme robota“, většina lidí si představí stroj, zařízení, nástroj. Když zazní „stroj“, je to chladnější, ale také bezpečnější rámec: stroj nemá ambice, stroj má úkol. Když řekne „nasazujeme pomocníka,“ zní to přátelsky a evokuje to podporu a úlevu, ale může to v lidech vyvolat otázku: „Pomocníka komu a s čím? Mně? Nebo aby mě jednou nahradil?“

Nejvíc třaskavé bývá slovo „kolega.“ Na jedné straně může naznačit respekt k lidem a snahu o spolupráci. Na druhé straně může působit jako manipulace: „Chcete, abych to bral jako kolegu, ale ve skutečnosti je to prostředek změny práce a možná i snižování počtu lidí.“ Zároveň mohou cítit, že se po nich chce, aby se chovali k robotu jako k člověku, což může být pro část lidí nepříjemné nebo ponižující. A navíc to posouvá očekávání do sociální roviny: kolega má úmysly, vztahy, někdy i moc. A tam se rodí odpor i strach mnohem snadněji. V mnoha případech je proto rozumnější držet se popisu role: „je to robotický systém pro manipulaci“, „asistenční robot pro opakované úkony“, „platforma pro přepravu a podávání.“

Design a chování robota pak tento jazyk buď podpoří, nebo zboří. Lidé jsou citliví na to, jak robot vypadá, jak se hýbe, jaké má „oči“, jakou má rychlost a jak blízko se přiblíží – to vše lidé čtou stejně intuitivně jako řeč těla u člověka. Hlas může působit uklidňujícím dojmem, ale může také znít nepatřičně, pokud je příliš lidský. Gesta mohou pomoci, pokud jsou jednoduchá a konzistentní, ale mohou rušit, když jsou přehnaná. Oči mohou zvyšovat srozumitelnost záměru, kam se robot chystá, ale zároveň mohou spustit nepříjemný pocit, pokud se robot „tváří“ lidsky, aniž by skutečně chápal sociální situaci.

Tady se často naráží na jev, který lidé popisují jako „divný pocit“ z příliš lidského projevu. Někdy se tomu říká „uncanny valley“ ale v praxi nejde o akademický termín, spíše o jednoduchou zkušenost: když něco vypadá skoro jako člověk, čekáme, že se bude chovat jako člověk. A když se tak nechová, je to znepokojivé. Proto může být pro důvěru lepší, když humanoid není „maskovaný člověk,“ ale jasně rozpoznatelný stroj s lidskou ergonomií. Člověk pak nečeká empatii ani porozumění, jen konzistentní a bezpečné chování.

Pohyb a chůze jsou dalšími silnými signály. Trhaný, nejistý krok může snižovat důvěru, protože vypadá jako ztráta stability. Příliš rychlý a „sebevědomý“ pohyb může naopak působit hrozivě, i kdyby byl bezpečný. Lidé často reagují lépe na pohyb, který je čitelný: robot svůj pohyb předem „naznačí“, zpomalí, dá signál, drží si odstup. Čitelnost pohybu je v lidské spolupráci základ – a u humanoidů se tento princip jen přesouvá do interakce člověk – stroj.

Z hlediska přijetí ve firmě často vyhrává střídmost: plynulý pohyb, srozumitelné signály, nepřehnaná mimika, žádné teatrální „gestikulování.“ Lidé hlavně potřebují, aby působil čitelně. V mnoha případech bude záležet na kontextu: jinak v logistice, jinak v laboratoři, jinak v prostředí, kde robot přichází do kontaktu s návštěvníky nebo veřejností.

Humanoid a práce: co se mění a co zůstává

Jedna z nejcitlivějších otázek zní: „Vezme nám to práci?“ Je lákavé odpovídat jednoduchými větami. Jenže realita bývá složitější – a férová komunikace si žádá složitost přiznat. V praxi se typicky nemění jen počet pracovních míst, ale hlavně obsah práce, role lidí a požadované kompetence. Někde může robot nahradit konkrétní rutinní činnost. Jinde může pomoci zvládnout nedostatek pracovníků nebo snížit fyzickou zátěž. A často se stane obojí v různých částech provozu. Co zůstává, je potřeba lidského úsudku, odpovědnosti a schopnosti řešit výjimky.

V mnoha případech se lidem uleví od nejvíc repetitivních, fyzicky nepříjemných nebo ergonomicky rizikových úkonů. To je pozitivní. Zároveň ale vznikají nové požadavky: někdo musí robota učit, nastavovat, hlídat, udržovat, řešit výjimky, komunikovat s integrátorem. Změní se role operátora, roste význam „dohledu“ a schopnosti reagovat na nestandardní situace. A přibývá práce, která není vidět: plánování, bezpečnostní pravidla, údržbové režimy, práce s daty, dokumentace.

Otázka nahraditelnosti nemusí být nutně ve smyslu okamžitého propouštění, ale ve smyslu identity: „Když robot dělá to, co jsem uměl já, jakou mám hodnotu?“ To je lidsky velmi citlivé. Vedení firem někdy podcení, jak moc je práce spojená s pocitem užitečnosti. Když se změna komunikuje jen jako „zvýšení efektivity“, lidé mohou slyšet „ty nejsi dost efektivní“. Lepší je pojmenovat přínos v lidském jazyce: snížení fyzické zátěže, méně monotónních úkolů, možnost učit se nové věci, větší bezpečí, lepší ergonomie. Ale vždy s dodatkem, že přechod bude vyžadovat učení a že je normální mít otázky.

Křivka přijetí změny bývá v praxi předvídatelná. Nejprve přijde zvědavost a lehká nervozita. Potom období, kdy se ukáže, že věci nejsou tak hladké, jak slibovalo video, a nastane frustrace. Někdy se objeví i posměch nebo cynismus, protože cynismus je obranný mechanismus: „Když to shodím, nemusím se bát, že selžu.“ Teprve poté, co lidé získají zkušenost a základní dovednosti, přichází stabilní přijetí.

Kamerové vnímání, monitoring a soukromí: lidem často vadí hlavně pocit sledování

Humanoid v reálném prostředí „vidí.“ Je to nutnost, aby mohl bezpečně manipulovat a pohybovat se mezi lidmi. Typicky používá kamerové nebo jiné senzorické vnímání. Tady se dotýkáme tématu, které vyvolává překvapivě silné reakce: monitoring a soukromí.

Mnoha lidem ve skutečnosti nevadí robot jako takový. Vadí jim pocit, že jsou sledováni – a že se to může použít proti nim. Zvlášť v pracovním prostředí, kde už tak existují tlaky na výkon, je kamera snadno vnímána jako nástroj kontroly. A pokud firma nekomunikuje jasně, co se snímá, proč a co se s daty děje, lidé si doplní nejhorší scénář.

Transparentnost tady není „nice to have.“ Je to základní podmínka důvěry. V praxi pomáhá několik jednoduchých principů. Srozumitelně označit, kdy a jaké senzory jsou aktivní. Vysvětlit účel: bezpečnostní detekce překážek je něco jiného než záznam obličejů. Pokud se data ukládají, říct jasně, jak dlouho a proč. Pokud se neukládají, říct to také. Důležité je i to, kdo je vlastníkem dat: je to technická údržba, bezpečnostní oddělení, externí dodavatel? Každá varianta má jiné sociální dopady. Vždy je nejrozumnější držet data v co největším bezpečí.

Důležité je i oddělit dvě věci, které se lidem často slévají: vnímání robota pro správné řízení, funkčnost a jeho bezpečí a „monitoring“ zaměstnanců. Pokud se to směšuje, důvěra se láme.

Etika v průmyslovém kontextu

Když se řekne etika, mnozí si představí akademickou debatu. Jenže v provozu je etika často velmi praktická. Je to otázka: kdo rozhoduje, kdo nese odpovědnost, co je přípustné a co už ne. U humanoidů se etické otázky typicky soustředí na tři oblasti: odpovědnost při incidentu, transparentnost rozhodování a limity použití.

Odpovědnost při incidentu se musí vyjasnit předem, ne až po problému. Lidé potřebují vědět, kdo má pravomoc systém zastavit, kdo ho může přenastavit, kdo schvaluje změny, kdo řeší hlášení, a jak se vyšetřují situace, kdy robot udělal něco nečekaného. Pokud to není jasné, vzniká nejistota: „Když se něco stane, spadne to na mě?“ A nejistota je živná půda pro odpor.

Transparentnost rozhodování u humanoidů je v praxi důležitá alespoň na úrovni, kterou člověk potřebuje pro spolupráci s nimi. Pokud robot udělá něco nečekaného, lidé často chtějí vědět „proč“. Ne nutně ve smyslu hluboké technické analýzy, ale ve smyslu smysluplného vysvětlení: vyhodnotil překážku, přeplánoval trasu, ztratil detekci objektu, přešel do bezpečnostního režimu. Když firma nedokáže nabídnout žádné vysvětlení a jen řekne „to se stává,“ posiluje to dojem nepředvídatelnosti.

Etika se týká i limitů použití technologie. Ne každý úkol je vhodný pro humanoida, a ne každé prostředí je připravené. A zároveň ne všechno, co je technicky možné, je společensky přijatelné. Férové nasazení znamená umět říct: tady je přínos, tady jsou rizika, tady to zatím dělat nebudeme.

A nakonec: etika je i o tom, jak se jedná se zaměstnanci. Jestli mají možnost vyjádřit obavy, jestli se s nimi mluví jako s partnery, nebo jestli se jim změna jen oznámí shora. Humanoidní robotika není jen technická implementace. Je to zásah do každodenní zkušenosti lidí v provozu.

Jak komunikovat humanoidy lidsky a realisticky

Jedna z největších chyb v komunikaci změny je snaha „uklidnit“ lidi tím, že se popře realita. Věty typu „to se vás nijak netýká“ nebo „to nemá žádný dopad“ znějí na první poslech uklidňujícím dojmem. Jenže lidé obvykle nejsou naivní. Vidí, že se něco mění. A když slyší, že se to nemění, začnou hledat skrytý motiv.

Manipulace není jen otevřená lež. Manipulace může být i zamlčení nejistoty. U humanoidů je přitom nejistota přirozená. V mnoha případech se teprve ověřuje, co bude fungovat v konkrétním podniku, jak se budou řešit výjimky, jaká bude reálná dostupnost, jak se bude měřit přínos. Férová komunikace tedy nevypadá jako „všechno je vyřešené“. Vypadá jako „něco víme, něco nevíme, a máme způsob, jak to zjistit.“

Férovost se pozná i podle toho, zda lidé dostanou prostor klást otázky bez obav, že budou označeni za brzdiče pokroku. Strach z technologie se totiž často mísí se strachem ze zesměšnění: „Když se zeptám, budu vypadat hloupě.“ Pokud firma vytvoří prostředí, kde je normální ptát se, normální říct „tohle mi není příjemné“ a normální navrhnout úpravu, důvěra roste rychleji než jakýkoli plakát s heslem.

Neexistuje univerzální recept, jak správně komunikovat příchod humanoidů se zaměstnanci, ale v praxi se opakují principy, které fungují napříč prostředími.

Pomáhá začít dřív, než humanoid přijede do haly. Vysvětlit, proč se technologie zkouší, jaký problém má řešit a jak bude vypadat pilotní fáze. Dát prostor otázkám – ideálně v malých skupinách, kde se lidé nestydí.

Dále pomáhá ukázat limity stejně otevřeně jako schopnosti. Když lidé slyší jen to, co robot umí, budou čekat zázraky. Když slyší i to, co neumí, lépe se připraví na realitu. Přiznání limitů navíc paradoxně posiluje důvěru: lidé cítí, že firma je upřímná.

Je dobré dát lidem kontrolní body: kdo ho umí zastavit, jak se přepínají režimy, jak se hlásí incident, co se děje po incidentu. Pocit kontroly snižuje stres. Nemusí to znamenat, že každý bude robota ovládat – stačí, když lidé vědí, že existuje jasný postup, jak nečekanou událost řešit.

Nutná jsou školení, která nejsou jen formalitou, ale praktickou zkušeností. Krátká demonstrace bezpečného zastavení, ukázka typických chyb, vysvětlení, jak robot vnímá okolí. Lidé často potřebují jen několik konkrétních zkušeností, aby se z abstraktního strachu stal konkrétní respekt.

Je důležité, aby pilotní ověřování bylo opravdu pilotní – tedy s možností upravit scénář, změnit pravidla, a v případě potřeby krok vrátit. Když se pilot tváří jako hotová věc, lidé nemají pocit, že mohou něco ovlivnit, a to odpor zvyšuje.

Budoucnost humanoidů nebude jen o tom, co umí, ale jak s nimi umíme žít

Humanoidní robotika otevírá velké možnosti. Může zlepšit ergonomii práce, pomoci řešit nedostatek lidí v některých rolích, zvýšit flexibilitu provozů a přinést nové typy spolupráce mezi člověkem a strojem. Zároveň ale nese riziko, že se z ní stane symbol nedůvěry a kontroly, pokud se nasazuje bez respektu k lidem.

Klíčové je přijmout jednoduchou myšlenku: přijetí humanoidů je sociální otázka stejně jako technická. Ne proto, že by lidé byli iracionální, ale proto, že humanoid vstupuje do lidského prostoru, jazyka, zvyklostí a vztahů. Důvěra se nevynutí. Buduje se předvídatelností, transparentností a jasnými hranicemi. Buduje se férovou komunikací, která nezamlčuje nejistoty a nepřehání realitu. Buduje se tím, že lidé mají možnost ptát se, učit se a být součástí změny.

Pokud se to podaří, humanoid se může stát tím, čím má být: užitečným nástrojem, který lidem ulehčí část práce a rozšíří možnosti na pracovišti, aniž by narušil základní pocit bezpečí a důstojnosti. A právě o to by mělo jít – aby technologie nezískala jen místo v hale, ale i přirozené místo v lidské zkušenosti.

Václav Kubáček
Václav Kubáček

Působí jako výzkumný pracovník a vývojář v RICAIP Testbed Prague, kde se zaměřuje na implementaci inovativních řešení pro průmyslové aplikace. Ve své práci se věnuje širokému spektru technických výzev — od strojového učení a počítačového vidění přes pokročilé řídicí algoritmy až po vývoj aplikací rozšířené reality.