[ALERT] Oszuści klonują głosy prezesów
[ALERT] Oszuści klonują głosy prezesów
Oszuści klonują głosy prezesów. Straty przekroczyły 200 mln dolarów.

Cyberprzestępcy coraz chętniej sięgają po sztuczną inteligencję, tworząc przekonujące deepfake’i głosów i wizerunków dyrektorów oraz prezesów. Ich celem jest wprowadzenie w błąd pracowników i wyłudzenie od nich setek tysięcy złotych, poufnych dokumentów czy dostępu do kluczowych systemów firmowych.
W typowym oszustwie deepfake pracownik z uprzywilejowanym dostępem do wewnętrznych operacji firmy. Na przykład menedżer finansowy, asystent zarządu otrzymuje pilny telefon od fałszywego dyrektora generalnego lub innego wysokiego rangą kierownika. Często dotyczy to rzekomo nagłego przełomu w planowanym przejęciu, fuzji lub podobnej transakcji o wysokich stawkach.
Po pierwszym połączeniu następuje wirtualne spotkanie jeden na jeden z przekonującym wideo dyrektora generalnego, który udziela pracownikowi szczegółowe instrukcje. Awatar fałszywego szefa odpowiada na pytania i komentarze niemal w czasie rzeczywistym. Do tego naśladuje naturalną konwersację, włącznie z rozpoznawalnym tonem głosu, charakterystycznym sposobem mówienia, a nawet specyficznym akcentem.
Te ataki działają, ponieważ są dostosowane do tego, jak funkcjonują ludzie. Znajomość, autorytet i poczucie pilności to potężne mechanizmy psychologiczne. Po zbudowaniu zaufania, nawet na krótko, atakujący mogą zażądać działań, które wydają się w pełni uzasadnione.
Źródło: www.crn.pl
W razie dodatkowych pytań zapraszamy do kontaktu.
