KI beim Enkeltrick

Audio Deepfakes imitieren die Stimmen von Verwandten

Der Enkeltrick, eine perfide Masche, bei der Betrüger sich als nahe Verwandte ausgeben, um vor allem ältere Menschen finanziell zu schädigen, hat durch den Einsatz von Künstlicher Intelligenz (KI) eine neue Dimension erreicht. Erfahren Sie, wie diese Technologie von Betrügern genutzt wird und welche Schutzmaßnahmen Sie ergreifen können.

Ein Audio-Deepfake ist eine Technologie, die künstliche Intelligenz nutzt, um menschliche Stimmen zu imitieren oder zu manipulieren. Dabei werden viele Daten von der zu imitierenden Person gesammelt, um ein möglich genaues Abbild der Stimme zu erstellen.
Am Telefon ist eine Unterscheidung kaum noch möglich. Daher ist es wichtig, sich der potenziellen Auswirkungen bewusst zu sein und angemessene Vorsichtsmaßnahmen zu treffen.

Begrenzen Sie die Menge an persönlichen Informationen, die Sie in sozialen Medien teilen. Je weniger öffentlich verfügbare Daten für KI-Analysen verfügbar sind, desto schwieriger wird es für Betrüger. Außerdem empfiehlt es sich den Telefonbucheintrag entfernen zu lassen. Da Betrüger häufig entsprechende Verzeichnisse nutzen.

Tipp: Nutzen Sie ein Code-Wort, mit dem Sie sich vor Ihren Verwandten identifizieren. Das kann helfen, um frühzeitig beim Gespräch zu erkennen, dass es sich um kein Familienmitglied handelt. Wichtig hierbei ist die Diskretion. Niemand außerhalb Ihrer Familie darf dieses Code-Wort kennen.