„Zlato, syn je v nemocnici,“ volala uplakaná manželka. Adam ale 70 tisíc na léčbu zraněného syna neposlal
Podvodníci používají moderní technologie k tomu, aby okradli i ty nejopatrnější. Málem naletěl i Adam, ale zachránila ho jedna obyčejná otázka.
Obsah článku
Tak, jako se obyčejní lidí stále víc vzdělávají v oblasti AI, se učí i podvodníci, jen to u nich platí dvojnásob. Využívají moderní technologie k manipulaci s emocemi lidí a podvodům. Do redakce Mobify poslal svou zkušenost i Adam, který byl na dovolené s rodinou v zahraničí. Kdyby mu na poslední chvíli nevletěla do hlavy záchranná otázky na rodinné heslo, byl by chudší o 70 tisíc korun.
Zavolala mu manželka a vyděsila ho zprávou o nehodě syna
Makléř Adam (39) byl s manželkou a synem na dovolené v zahraničí. Nicméně jeden den musel kvůli práci zůstat na hotelu, zatímco žena šla se synem na procházku do města. Po nějaké době mu zazvonil telefon a z druhé strany se ozval pláč jeho ženy: „Zlato, syn měl nehodu a je v nemocnici!“ Adamovi se v tu chvíli udělalo špatně a málem se na místě sesypal.
Jeho „manželka“ mu řekla, že místní pohotovost nemá smlouvu s jejich pojišťovnou a stav syna vyžaduje okamžitou operaci, která bude stát 70 tisíc korun. Adam už málem peníze poslal, když tu si vzpomněl na rodinné heslo – jednoduchou otázku, kterou mezi sebou se ženou používají pro ověření. Když ji položil, hovor se náhle přerušil. Okamžitě ženě zavolal zpět a zjistil, že je všechno v naprostém pořádku.
Šlo totiž o velice sofistikovaný podvod zaměřený na strach o dítě. Podvodníci využili AI klon hlasu vytvořený z videa manželky, které sama zveřejnila na sociální síti. A jelikož tam měla i své telefonní číslo, propojení bylo snadné. Dokázali tak klonovat její tón a intonaci natolik přesvědčivě, že Adam prakticky neváhal. Až v poslední chvíli se zarazil.
Podvody s klonováním hlasu jsou poměrně na vzestupu
Podvody s AI hlasem byly ještě nedávno sci-fi, ale rychle se rozvíjí. Útočníci mohou shromáždit dostatek dat z veřejných videí, sociálních sítí nebo jiných online zdrojů a vytvořit realistickou kopii hlasu oběti. Takto zneužitý hlas jde použít k telefonním podvodům, vymáhání peněz nebo manipulaci s citlivými informacemi, varuje ACA.
V případě Adama šlo o cílenou akci, která kombinuje techniku „voice cloning“, tedy klonování hlasu pomocí AI, jak vysvětluje Premo, a psychologický tlak – umělé vytvořený hlas manželky a urgentní situace „syn v nemocnici“ měly vyvolat paniku a snížit kritické myšlení. Podobné případy se objevují po celém světě a experti varují, že útoky budou čím dál horší. Doporučujeme držet se následujícího:
- Nikdy neposílejte peníze bez ověření identity. Pokud volá známá osoba v krizi, ověřte ji i jinak.
- Rodinné heslo nebo kódová slova jsou jednoduchou, ale účinnou obranou proti podvodníkům.
- Zkontrolujte, zda jsou požadavky realistické. Operace a pohotovosti nikdy nevyžadují okamžitou platbu prostřednictvím převodu na účet volajícího.
- Používejte antivirový software a aktualizace. Některé útoky mohou využívat i malware k monitorování komunikace.
Technologický pokrok zkrátka přináší kromě výhod i rizika. AI dokáže napodobit hlas prakticky kohokoli, a proto by lidé měli být opatrní a mít pevně nastavené interní bezpečnostní pravidla. Adamův příběh dopadl dobře, ale varování je z něj přesto jasné.