Deepfake je obecný termín pro obsah generovaný umělou inteligencí, který napodobuje skutečnou osobu — hlas, obličej nebo styl písma. V kontextu telefonních podvodů se nejčastěji setkáme s voice deepfake (klon hlasu): útočník nahraje 30 vteřin hlasu cílové osoby z videí na sociálních sítích, vytvoří AI klon a pak zavolá oběti pod identitou klonované osoby. První masivně reportované případy v ČR začaly v létě 2025.
Jak to funguje
Útočník použije veřejně dostupné AI nástroje (ElevenLabs, Resemble.ai, open-source Tortoise TTS). Potřebuje 30-60 vteřin nahrávky cílového hlasu — typicky z Instagram Reels, TikToku, YouTube videa, podcastu, nebo dříve nahraného hovoru. Po několika minutách trainingu získá AI model, který umí říct cokoliv hlasem této osoby.
Jak to rozeznat
- Nepřirozené pauzy — AI generuje text větu po větě, mezi větami je drobná pauza navíc.
- Konzistentní prozódie — hlas je přesnější ale plošší, chybí emoční variabilita.
- Chybí kašel, vzdychání, drobné ruchy v pozadí.
- Nereaguje na nečekané otázky — pokud zeptáte na něco intimního, AI buď pauzuje nebo selže.
- Žádost je neobvyklá — typicky urgentní finanční nouze.
Co dělat
- Mějte s rodinou domluvené BEZPEČNÉ SLOVO — předem dohodnutá fráze, která zazní při skutečné nouzi. AI klon ji nezná.
- Vždy zavolejte zpět na ZNÁMÉ číslo člena rodiny z jiného zařízení.
- Pokládejte intimní otázky, které byste měli vědět jen vy dva.
- Citlivé žádosti řešte přes druhý kanál — videohovor, nebo osobně.
- Při podezření kontaktujte Policii ČR a NÚKIB.
České kontexty
Aktuálně reportovaná nebezpečná čísla
Top čísla, na která lidé hlásí podvodné nebo otravné hovory. Pokud vám zazvonilo některé z nich, čtěte zkušenosti ostatních.
Časté otázky
Související pojmy
Hledáte další pojem? Otevřít celý slovník →