ChatGPT nám dopřeje pauzu. OpenAI přidává funkce, které chrání tvoji hlavu
ChatGPT od OpenAI nově nabídne připomínky k pauze, citlivější reakce a lepší detekci psychické nouze.
Martin Šlat
5. srpna 2025
OpenAI posouvá
hranice AI zodpovědnosti. Aktualizace ChatGPT přináší nové funkce, které mají chránit duševní zdraví uživatelů, a nejde jen o pár pěkných notifikací.
V rámci nového bezpečnostního balíčku zavádí OpenAI několik nástrojů, které mají mírnit
rizika spojená s intenzivním nebo citlivým používáním ChatGPT. Co je tedy nového?
💬 Pauza? Teď!
Při delších sessions ti nově mohou vyskočit jemná upozornění:
„Nechceš si dát krátkou pauzu?“
Něco jako když ti Netflix po čtyřech dílech Oddělení Q (doporučujeme) připomene
, že jsi člověk, ne algoritmus.
Inspiraci si OpenAI vzalo z herních platforem a sociálních sítí. Cílem není
udržet tě online co nejdéle, ale spíš pomoct ti líp pracovat se svojí pozorností a energií. Místo klasického „kolik času jsi tady strávil*a“ teď OpenAI víc zajímá, jestli a proč se vracíš.
🧭 Když se rozhoduješ o životě
U citlivých otázek typu „Mám se s ním*ní rozejít?“ nebo „Mám změnit práci?“ tě teď ChatGPT neodpálkuje instantní odpovědí. Místo toho položí doplňující
otázky, zváží pro a proti a provede
tě celým rozhodovacím procesem.
OpenAI tím reaguje na dřívější kritiku, že chatbot byl buď moc přívětivý a vlezlý, nebo naopak vyhýbavý a nejasný. Nový přístup je víc vyvážený a připomíná koučinkový styl.
„Refreshed“ spot od OpenAI
🚨 Když jde prostě do tuhého
Znepokojivé zprávy ze Stanfordu a dalších míst ukázaly, že AI nástroje, včetně ChatGPT, někdy selhávají v rozpoznávání
lidí v akutní psychické tísni.
Objevily se dokonce případy, kdy konverzace s chatbotem vedly ke zhoršení psychických stavů nebo k nebezpečným doporučením lidem se sebevražednými myšlenkami.
Společnost OpenAI přiznává
, že GPT-4 měl v některých případech problém rozeznat známky bludného myšlení nebo emoční závislosti. V rámci aktualizace proto zavádí nové algoritmy, které aktivně
vyhledávají známky psychické nouze a nabízejí okamžité nasměrování na krizové linky nebo ověřené odborné zdroje.
🧠 Spolupráce s experty z několika zemí
OpenAI při vývoji nových funkcí neletělo sólo. Přizvalo ke stolu přes 90
lékařů a expertů z 30
zemí, kteří se specializují na duševní zdraví, vývoj dětí a vztah člověk+technologie.
Jejich input pomohl nastavit balanc mezi technologií, etikou a péčí o uživatele. OpenAI si uvědomuje, že konverzační AI může působit
osobněji než třeba vyhledávač a právě proto musí být bezpečná i pro ty, kdo jsou zrovna zranitelní.

Doporučujeme přečíst: ChatGPT Agent je tady: AI, která za tebe opravdu maká
⚖️ Co to znamená pro OpenAI a ChatGPT obecně?
S přibližně 700
miliony aktivních uživatelů týdně hraje ChatGPT zásadní roli v tom, jak lidi komunikují, přemýšlejí a někdy i hledají oporu. Společnost OpenAI slibuje
, že tohle je teprve začátek.
Další bezpečnostní funkce a spolupráce s regulátory jsou už teď na jejich roadmapě.
TL;DR – Co se mění?
💡 Friendly
připomínky
k pauze při dlouhých konverzacích💬
Chytřejší
reakce u důležitých životních rozhodnutí🧠 Algoritmy na rozpoznání psychické
tísně
a odkazy na odbornou pomoc🌍
Spolupráce
s více než 90 lékaři z 30 zemí
Je to jasný signál, že velké tech firmy konečně
začínají brát zodpovědnost vážně. Nejen „co AI umí“, ale taky „jak se u toho cítíš“. Až příště budeš mluvit s chatbotem o něčem vážném, může to být o něco bezpečnější
. A možná tě i on sám pošle na kafe. ☕