Beim Einkaufen, bei der Urlaubsplanung oder beim Autofahren. Überall kann Künstliche Intelligenz helfen. Aber sie kann auch Kriminellen helfen. Zum Beispiel bei Betrugs-Anrufen nutzen Betrüger KI-Tools, um Stimmen zu faken und Menschen dann mit dem Enkeltrick zu betrügen. Nino Goldbeck von der Zentralstelle Cybercrime Bayern in Bamberg sagt: Schon wenige Sekunden von der Originalstimme reichen:
„Das kann in den sozialen Netzwerken sein, das kann was bei YouTube eingestellt sein, das kann auf irgendwelchen Kanälen sein, es genügt nur ganz wenig. Und deswegen ist die Lösung eigentlich sehr profan, wie man sich schützen kann. Denn je weniger man von sich selbst Preis gibt im Netz, desto weniger ist man natürlich auch gefährdet.“
KI-Tools können Stimmen faken:
„Wenn tatsächlich das Telefon klingelt, unbedingt diesen Fall auch bei der Polizei oder bei der Staatsanwaltschaft melden. Denn nur dann, wenn diese Fälle bekannt werden, kann auch reagiert werden. Es ist in dem Bereich tatsächlich schwierig, Täter zu ermitteln, aber die letzten Jahre zeigen, es ist keineswegs unmöglich.“
Auch Prominente seien nicht sicher: Zum Beispiel nutzen Betrüger sogenannte Deep-Fakes, also durch KI generierte extrem echt wirkende Videos von Promis, um für ihre Produkte zu werben.
Außerdem gibt es Tricks, bei denen Betrüger Angestellte kurzfristig zu Zahlungen an angeblich andere Unternehmen auffordern:
„… in dem beispielsweise im Rahmen einer vermeintlichen Videokonferenz diverse andere Mitarbeiter auch aus dem Vorstand künstlich generiert wurden und damit natürlich einen sehr überzeugenden Eindruck hinterließen.“