Aktualności

[ALERT] Oszuści klonują głosy prezesów

Alerty

[ALERT] Oszuści klonują głosy prezesów

Oszuści klonują głosy prezesów. Straty przekroczyły 200 mln dolarów.

Cyberprzestępcy coraz chętniej sięgają po sztuczną inteligencję, tworząc przekonujące deepfake’i głosów i wizerunków dyrektorów oraz prezesów. Ich celem jest wprowadzenie w błąd pracowników i wyłudzenie od nich setek tysięcy złotych, poufnych dokumentów czy dostępu do kluczowych systemów firmowych.

W typowym oszustwie deepfake pracownik z uprzywilejowanym dostępem do wewnętrznych operacji firmy. Na przykład menedżer finansowy, asystent zarządu otrzymuje pilny telefon od fałszywego dyrektora generalnego lub innego wysokiego rangą kierownika. Często dotyczy to rzekomo nagłego przełomu w planowanym przejęciu, fuzji lub podobnej transakcji o wysokich stawkach.

Po pierwszym połączeniu następuje wirtualne spotkanie jeden na jeden z przekonującym wideo dyrektora generalnego, który udziela pracownikowi szczegółowe instrukcje. Awatar fałszywego szefa odpowiada na pytania i komentarze niemal w czasie rzeczywistym. Do tego naśladuje naturalną konwersację, włącznie z rozpoznawalnym tonem głosu, charakterystycznym sposobem mówienia, a nawet specyficznym akcentem.

Te ataki działają, ponieważ są dostosowane do tego, jak funkcjonują ludzie. Znajomość, autorytet i poczucie pilności to potężne mechanizmy psychologiczne. Po zbudowaniu zaufania, nawet na krótko, atakujący mogą zażądać działań, które wydają się w pełni uzasadnione.

Źródło: www.crn.pl

W razie dodatkowych pytań zapraszamy do kontaktu.