Klonování hlasu je technika, při které AI model z krátké zvukové ukázky (často stačí 3–10 sekund) vyrobí syntetický hlas, který zní jako daná osoba. Modely jako ElevenLabs, Resemble.ai nebo OpenSource alternativy umí vyprodukovat hlas v reálném čase a říct cokoli. Útočník si nahraje hlas oběti z TikToku, Instagram Stories, voicemail-pozdravu, zavolá rodičům či dětem a pod tlakem žádá peníze.
Jak to funguje
AI model se trénuje na velkém korpusu hlasových dat (TTS — text-to-speech). Pro konkrétního člověka stačí dokmrazení (fine-tuning) na 3–60 sekundách jeho hlasu. Útočník: 1) najde nahrávku oběti (sociální sítě, podcast, voicemail), 2) klonuje ji v cloud službě (typicky 15 minut), 3) napíše scénář mám problém, 4) v reálném čase volá rodině přes službu, která syntetizuje hlas a posílá ho do hovoru.
Jak to rozeznat
- Volající (znějící jako rodina) je v silném stresu, požaduje rychlou peněžitou pomoc.
- Kontext nesedí — vaše dcera je v Česku, ale volá z Prahy z nemocnice po nehodě, o které nic nevíte.
- Hovor je krátký, voláč nedovolí kontrolní otázky.
- Hlas je sice správný, ale chybí mu emocionální nuance — robotický rytmus, divné pauzy.
- Kontaktují vás přes neznámé číslo, ne přes vlastní mobil rodiny.
Co dělat
- **Domluvte si v rodině bezpečnostní heslo** — slovo, které zná jen rodina (oblíbené jídlo dítěte, jméno domácího zvířete). V krizi se ho zeptat. Útočník ho neví.
- Při volání o peníze **vždycky** zavěste a zavolejte zpět na vlastní číslo dotyčné osoby.
- Pošlete WhatsApp/SMS s kontrolní otázkou (jak se jmenoval náš první pes) — útočník neví.
- Nikdy neposílejte peníze na nový bankovní účet, který předtím nikdy nebyl používaný.
- Hlasové ukázky na sociálních sítích minimalizujte — víc než vám pomáhají, riskují, že je AI naklonuje.
České kontexty
Aktuálně reportovaná nebezpečná čísla
Top čísla, na která lidé hlásí podvodné nebo otravné hovory. Pokud vám zazvonilo některé z nich, čtěte zkušenosti ostatních.
Časté otázky
Související pojmy
Hledáte další pojem? Otevřít celý slovník →