SteveJ
V:I:P
- Registriert
- 21 Apr. 2010
- Themen
- 1.047
- Beiträge
- 3.240
- Reaktionen
- 8.402
Betrügerische Anrufe und E-Mails bereiten Verbrauchern seit Jahren Sorgen. 😟
Künstliche Intelligenz (KI) verschärft die Problematik...
"Mama, es ist was ganz Schreckliches passiert", erzählt sie unter Tränen.
Und berichtet, Schuld am Tod eines kleinen Mädchens zu sein, weil sie jemandem die Vorfahrt genommen hat.
Dann gibt sie den Hörer weiter an eine vermeintliche Polizistin.
Die erklärt der Mutter, ihre Tochter müsse in Untersuchungshaft bleiben, weil der Staatsanwalt ihr Fahrerflucht vorwerfe.
Die Beamtin sagt, wenn die Mutter eine Kaution beim Amtsgericht hinterlege, komme ihre Tochter wieder frei.
Später stellt sich heraus: Die ganze Geschichte ist frei erfunden. Die Tochter hat keinen Unfall verursacht.
Betrüger hatten es auf das Geld der Mutter abgesehen, wie die "Berliner Zeitung" berichtet.
Die Methode, die die Angreifer nutzten, nennt sich "Voice Cloning". Mit Hilfe Künstlicher Intelligenz (KI) werden Stimmen vertrauter Personen imitiert.
"Software, die Stimmen klonen kann, benötigt heutzutage nur wenige Sätze als Tonaufnahme von einer Person, um diese dann alles sagen zu lassen, was Betrüger möchten", so Michael Zerna, Software-Ingenieur und Geschäftsführer der Zerna.io GmbH.
Seine Firma berät Unternehmen unter anderem im Bereich Künstliche Intelligenz.
Zerna hört nicht zum ersten Mal von Betrugsversuchen wie dem, über den die "Berliner Zeitung" berichtet.
Vorfälle, bei denen Betrüger die "Voice Cloning"-Taktik anwenden, häufen sich. Das geht auch aus einem aktuellen Beitrag des "WDR" hervor.
Verwunderlich ist das nicht. Schließlich kommen Kriminelle heutzutage ohne viel Aufwand an die Stimme einer Person.
Zum Beispiel über "soziale Medien wie TikTok, YouTube, Facebook und Instagram, wo Menschen entsprechende Videos teilen", sagt Zerna.
Auch der Softwareentwickler OpenAI, der den Chatbot ChatGPT entwickelt hat, hat vor Kurzem mitgeteilt, dass sie eine Techlogie entwickelt haben, die mit ca. 15 Sekunden Tonmaterial die eigene Stimme nahezu perfekt klonen kann.
Die Technologie wird aber aktuell noch nicht veröffentlicht.
Informationen über ihre Opfer - wie etwa Telefonnummern - bekommen Angreifer laut dem Experten zum Beispiel im Darknet.
Über bestimmte Programme lassen sich dann persönliche Profile erstellen.
So wissen Kriminelle, wer Kinder hat und unter Umständen auch, wo eine Person arbeitet.
"Betrugsversuche mittels KI nehmen zu", resümiert Zerna.
"Laut FBI und verschiedenen Verbraucherschutzorganisationen werden KI-Technologien wie Deepfakes und Voice Cloning immer häufiger für Erpressung, den 'Großeltern-Betrug' und für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen verwendet."
Längst ist KI auch bei Phishing-Kampagnen ein Thema.
Darunter versteht man Versuche, sich über gefälschte Webseiten, E-Mails oder Kurznachrichten als vertrauenswürdiger Kommunikationspartner in einer elektronischen Kommunikation auszugeben.
Ziel ist es, an persönliche Daten zu gelangen.
KI-Tools helfen Phishern, ihre Angriffe genauer auf potenzielle Opfer zuzuschneiden.
Sie können "mittels spezieller KI-Generatoren effizientere Phishing-Texte formulieren", sagt Zerna.
"Diese individualisierten Angriffe können es für den Durchschnittsbenutzer schwieriger machen, die Bedrohung als solche zu erkennen."
Dazu passen auch Beobachtungen großer E-Mail-Provider. Web.de und GMX berichtenvon einem Spam-Anstieg um 40 Prozent.
Von Januar bis August 2023 identifizierten die Anbieter wöchentlich 1,5 Milliarden E-Mails als Spam oder Phishing. Im Vorjahr waren es noch 1,1 Milliarden.
Den Anstieg führen die Provider auf Künstliche Intelligenz zurück. Sprach-Modelle würden die Qualität von Phishing-Nachrichten erhöhen.
Sie wirken weniger plump, sind in besserem Deutsch verfasst als bisher. Außerdem lässt sich laut web.de und GMX der Spam-Versand über KI-Tools vereinfachen.
Demnach gibt es sogar Bots, die speziell für bösartige Aktivitäten entworfen wurden.
So erzeugte Phishing-Nachrichten bewertete der Experte Daniel Kelley in einem Test als "bemerkenswert überzeugend" und "strategisch gerissen".
Web.de und GMX schreiben in ihrer neuesten Mitteilung, dass sie KI mit KI bekämpfen wollen.
Die Provider rüsten ihre Filtersysteme entsprechend auf, sodass Spam-Muster früher und besser erkannt werden können.
Eine Maßnahme, die auch Phishing-Experte Kelley empfahl.
Trotzdem können sich Verbraucher auch selbst vor KI-generierten E-Mails und "Voice Cloning"-Attacken schützen.
"Ruhe bewahren und nicht sofort handeln", rät Ingenieur Zerna. "Seien Sie besonders vorsichtig bei Anfragen nach Geld oder persönlichen Informationen."
Anrufe, die klingen, als kämen sie von nahen Verwandten, sind allerdings besonders trickreich.
Wer ahnt schon, dass es sich um Betrüger und nicht die eigenen Kinder oder Eltern handelt, wenn man am anderen Ende der Leitung deren Stimmen hört?
Er empfiehlt darüber hinaus, ein geheimes Codewort mit Familienmitgliedern zu vereinbaren, das bei verdächtigen Anrufen abgefragt werden kann.
Zur Verifizierung, sozusagen.
So hat übrigens auch die Frau, über die die "Berliner Zeitung" berichtete, den vermeintlichen Anruf ihrer Tochter als Betrugsversuch enttarnt.
Sie fragte "ihren Nachwuchs" etwas, das nur die echte Tochter wissen konnte: Wie ihr erstes Zwergkaninchen hieß.
Als die Antwort ausblieb, wusste die Frau, dass sie das Gespräch getrost beenden kann...
Quellen: Berliner Zeitung, CHIP, WDR, web.de, GMX
Künstliche Intelligenz (KI) verschärft die Problematik...
Es geht um Situationen wie diese:
Das Telefon einer Frau klingelt. Am Apparat die eigene Tochter. So scheint es jedenfalls."Mama, es ist was ganz Schreckliches passiert", erzählt sie unter Tränen.
Und berichtet, Schuld am Tod eines kleinen Mädchens zu sein, weil sie jemandem die Vorfahrt genommen hat.
Dann gibt sie den Hörer weiter an eine vermeintliche Polizistin.
Die erklärt der Mutter, ihre Tochter müsse in Untersuchungshaft bleiben, weil der Staatsanwalt ihr Fahrerflucht vorwerfe.
Die Beamtin sagt, wenn die Mutter eine Kaution beim Amtsgericht hinterlege, komme ihre Tochter wieder frei.
Später stellt sich heraus: Die ganze Geschichte ist frei erfunden. Die Tochter hat keinen Unfall verursacht.
Betrüger hatten es auf das Geld der Mutter abgesehen, wie die "Berliner Zeitung" berichtet.
Die Methode, die die Angreifer nutzten, nennt sich "Voice Cloning". Mit Hilfe Künstlicher Intelligenz (KI) werden Stimmen vertrauter Personen imitiert.
"Software, die Stimmen klonen kann, benötigt heutzutage nur wenige Sätze als Tonaufnahme von einer Person, um diese dann alles sagen zu lassen, was Betrüger möchten", so Michael Zerna, Software-Ingenieur und Geschäftsführer der Zerna.io GmbH.
Seine Firma berät Unternehmen unter anderem im Bereich Künstliche Intelligenz.
Zerna hört nicht zum ersten Mal von Betrugsversuchen wie dem, über den die "Berliner Zeitung" berichtet.
Vorfälle, bei denen Betrüger die "Voice Cloning"-Taktik anwenden, häufen sich. Das geht auch aus einem aktuellen Beitrag des "WDR" hervor.
Verwunderlich ist das nicht. Schließlich kommen Kriminelle heutzutage ohne viel Aufwand an die Stimme einer Person.
Zum Beispiel über "soziale Medien wie TikTok, YouTube, Facebook und Instagram, wo Menschen entsprechende Videos teilen", sagt Zerna.
Auch der Softwareentwickler OpenAI, der den Chatbot ChatGPT entwickelt hat, hat vor Kurzem mitgeteilt, dass sie eine Techlogie entwickelt haben, die mit ca. 15 Sekunden Tonmaterial die eigene Stimme nahezu perfekt klonen kann.
Die Technologie wird aber aktuell noch nicht veröffentlicht.
Informationen über ihre Opfer - wie etwa Telefonnummern - bekommen Angreifer laut dem Experten zum Beispiel im Darknet.
Über bestimmte Programme lassen sich dann persönliche Profile erstellen.
So wissen Kriminelle, wer Kinder hat und unter Umständen auch, wo eine Person arbeitet.
"Betrugsversuche mittels KI nehmen zu", resümiert Zerna.
"Laut FBI und verschiedenen Verbraucherschutzorganisationen werden KI-Technologien wie Deepfakes und Voice Cloning immer häufiger für Erpressung, den 'Großeltern-Betrug' und für hochentwickelte Social-Engineering-Angriffe gegen Unternehmen verwendet."
Längst ist KI auch bei Phishing-Kampagnen ein Thema.
Darunter versteht man Versuche, sich über gefälschte Webseiten, E-Mails oder Kurznachrichten als vertrauenswürdiger Kommunikationspartner in einer elektronischen Kommunikation auszugeben.
Ziel ist es, an persönliche Daten zu gelangen.
KI-Tools helfen Phishern, ihre Angriffe genauer auf potenzielle Opfer zuzuschneiden.
Sie können "mittels spezieller KI-Generatoren effizientere Phishing-Texte formulieren", sagt Zerna.
"Diese individualisierten Angriffe können es für den Durchschnittsbenutzer schwieriger machen, die Bedrohung als solche zu erkennen."
Dazu passen auch Beobachtungen großer E-Mail-Provider. Web.de und GMX berichtenvon einem Spam-Anstieg um 40 Prozent.
Von Januar bis August 2023 identifizierten die Anbieter wöchentlich 1,5 Milliarden E-Mails als Spam oder Phishing. Im Vorjahr waren es noch 1,1 Milliarden.
Den Anstieg führen die Provider auf Künstliche Intelligenz zurück. Sprach-Modelle würden die Qualität von Phishing-Nachrichten erhöhen.
Sie wirken weniger plump, sind in besserem Deutsch verfasst als bisher. Außerdem lässt sich laut web.de und GMX der Spam-Versand über KI-Tools vereinfachen.
So können sich Verbraucher schützen
Neu ist das Problem nicht. Das Tech-Portal "Golem" berichtete bereits vor einigen Monaten darüber.Demnach gibt es sogar Bots, die speziell für bösartige Aktivitäten entworfen wurden.
So erzeugte Phishing-Nachrichten bewertete der Experte Daniel Kelley in einem Test als "bemerkenswert überzeugend" und "strategisch gerissen".
Web.de und GMX schreiben in ihrer neuesten Mitteilung, dass sie KI mit KI bekämpfen wollen.
Die Provider rüsten ihre Filtersysteme entsprechend auf, sodass Spam-Muster früher und besser erkannt werden können.
Eine Maßnahme, die auch Phishing-Experte Kelley empfahl.
Trotzdem können sich Verbraucher auch selbst vor KI-generierten E-Mails und "Voice Cloning"-Attacken schützen.
"Ruhe bewahren und nicht sofort handeln", rät Ingenieur Zerna. "Seien Sie besonders vorsichtig bei Anfragen nach Geld oder persönlichen Informationen."
Anrufe, die klingen, als kämen sie von nahen Verwandten, sind allerdings besonders trickreich.
Wer ahnt schon, dass es sich um Betrüger und nicht die eigenen Kinder oder Eltern handelt, wenn man am anderen Ende der Leitung deren Stimmen hört?
Diese Kniffe helfen gegen KI-Betrug
"Technisch ist es schwierig, eine KI-generierte Stimme zu erkennen, aber eine Lücke in der Konversation oder Unnatürlichkeiten im Dialog könnten Hinweise sein", sagt Zerna.Er empfiehlt darüber hinaus, ein geheimes Codewort mit Familienmitgliedern zu vereinbaren, das bei verdächtigen Anrufen abgefragt werden kann.
Zur Verifizierung, sozusagen.
So hat übrigens auch die Frau, über die die "Berliner Zeitung" berichtete, den vermeintlichen Anruf ihrer Tochter als Betrugsversuch enttarnt.
Sie fragte "ihren Nachwuchs" etwas, das nur die echte Tochter wissen konnte: Wie ihr erstes Zwergkaninchen hieß.
Als die Antwort ausblieb, wusste die Frau, dass sie das Gespräch getrost beenden kann...
Quellen: Berliner Zeitung, CHIP, WDR, web.de, GMX