Digitale NFT-Kunst

11 Überzeugende ChatGPT und KI-Betrügereien im Auge zu behalten im Jahr 2024 - Tech.co: Ein Überblick

Digitale NFT-Kunst
11 überzeugende ChatGPT- und KI-Betrügereien, vor denen Sie im Jahr 2024 Ausschau halten sollten – Tech.co

In Artikel 11 überzeugende ChatGPT und KI-Betrugsfälle, auf die Sie 2024 achten sollten.

11 Überzeugende ChatGPT- und KI-Betrugsversuche im Jahr 2024 Seit der Einführung von ChatGPT im November 2022 hat sich gezeigt, wie nützlich KI-Technologie sein kann, mit Arbeitnehmern auf der ganzen Welt, die täglich innovative Möglichkeiten finden, künstliche Intelligenz anzuwenden. Sei es mithilfe von ChatGPT-Plugins, die Ihnen dabei helfen, Dinge zu erledigen, oder dem KI-Lebenslauf-Builder, der Ihren Lebenslauf aufwertet - die Kraft und Nützlichkeit von KI sind mittlerweile unbestreitbar. Leider kann diese Technologie auch für heimtückische Zwecke genutzt werden, wie das Schreiben von Malware-Skripten und Phishing-E-Mails. In den letzten sechs bis acht Monaten wurden Hacker dabei beobachtet, wie sie das heiß diskutierte Thema nutzten, um Menschen mittels gefälschter Investitionsmöglichkeiten und betrügerischer Apps um ihr Geld zu bringen und ihre Informationen zu stehlen. KI-Betrugsversuche sind schwierig zu erkennen, aber viele Menschen investieren nicht in Antivirensoftware, die Sie vor verdächtigen Aktivitäten im Internet warnt.

Vor diesem Hintergrund haben wir diesen Leitfaden zusammengestellt, der alle gängigen Taktiken auflistet, die in letzter Zeit beobachtet wurden, sowie einige Ränke, die 2024 aufgetaucht sind. In diesem Artikel behandeln wir: KI-Betrugsversuche: Wie häufig treten sie auf? 1. KI-unterstützte Phishing-Betrugsversuche 2. KI-Betrugsversuche in sozialen Medien 3. KI-Stimmen-Klon-Betrugsversuche 4.

Falsche ChatGPT-Apps 5. Falsche ChatGPT-Websites 6. Betrugsversuche mit AI-Celebrity-Deepfakes 7. KI-Investmentbetrugsversuche 8. KI-Romance-Betrugsversuche 9.

KI-Rekrutierungsbetrugsversuche Neueste ChatGPT- und KI-Betrugsfälle im Jahr 2024 KI-Betrugsversuche: Sie werden nur noch schlimmer Wie schon im Einleitungsteil dieses Artikels angedeutet, können "KI-Betrugsversuche" auf zwei verschiedene Genres von Betrugsversuchen verweisen, von denen in der letzten Zeit zahlreiche Beispiele aufgetaucht sind. Bei KI-unterstützten Betrugsfällen hilft künstliche Intelligenz dem Betrüger tatsächlich bei der Durchführung des Betrugs, wie etwa bei der Erstellung des Textes für eine Phishing-E-Mail. Bei allgemeinen KI-Betrugsfällen nutzt der Hacker die Beliebtheit und zeitgemäße Natur der KI als Thema, um neugierige Ziele zu gewinnen, wie etwa bei einem fingierten ChatGPT-App-Betrug. Dies funktioniert, weil so viele Menschen entweder versuchen, mit ChatGPT Geld zu verdienen oder es nutzen, um Zeit bei ihren Jobs zu sparen. Die kalifornische DFPI hat einen Anstieg betrügerischer KI-Investmentangebote verzeichnet, während Cyber-Sicherheitsunternehmen wie McAfee in den letzten Monaten einen Anstieg betrügerischer KI-Rufklon-Betrugsfälle beobachtet haben.

Der explosive Start von ChatGPT führte auch zu einer Welle von bösartigen Domains, über die ebenfalls in diesem Artikel diskutiert werden wird. Kürzlich warnte der Mitbegründer von Apple, Steve Wozniak - ein neuer Unterzeichner eines Schreibens, das eine Pause bei der Entwicklung von KI fordert - davor, dass künstliche Intelligenz Betrugsversuche viel schwerer erkennbar macht und es bösartigen Akteuren ermöglicht, immer überzeugender zu klingen. Das Zeitalter der KI-unterstützten Betrugsversuche ist da. Ähnlich wie "Ransomware-as-a-Service" das erforderliche technische Können für einen Angriff auf ein Unternehmen gesenkt hat, bedeuten KI-Tools wie ChatGPT, dass praktisch jeder überzeugend klingen kann. In der Theorie können jetzt eine viel breitere demografische Gruppe solche Betrugsfälle effektiv durchführen.

1. KI-unterstützte Phishing-Betrugsversuche Phishing-Betrugsfälle gibt es schon seit Jahren - Betrüger senden E-Mails oder Textnachrichten, die sich als ein legitimes Unternehmen ausgeben, wie Microsoft, in dem Versuch, Sie dazu zu bringen, auf einen Link zu klicken, der Sie zu einer bösartigen Website führt. Von dort aus kann ein Bedrohungsakteur Malware auf Ihr Gerät einschleusen oder persönliche Informationen wie ein Passwort stehlen. Historisch gesehen war es einer der einfachsten Wege, sie zu erkennen, anhand von Rechtschreib- und Grammatikfehlern, die ein so renommiertes Unternehmen wie Microsoft in einer offiziellen E-Mail an seine Kunden einfach nicht machen würde. Im Jahr 2023 können Sie jedoch mit einer einfachen Anleitung ChatGPT anweisen, sauberen, flüssigen Text zu erstellen, der keine Rechtschreibfehler enthält.

Dadurch wird es viel schwieriger, zwischen legitimen Korrespondenzen und Phishing-Angriffen zu unterscheiden. Wenn Sie ChatGPT explizit auffordern, eine E-Mail zum Zweck des Phishings zu erstellen, verweigert der Chatbot dies. Wir haben jedoch ChatGPT gebeten, zwei verschiedene Arten von E-Mails zu erstellen, die möglicherweise als Vorlage für einen Phishing-Betrug verwendet werden könnten, und erstaunlicherweise scheint es, dass diese Arten von Anfragen nicht gegen seine Inhaltsrichtlinien verstoßen: Sich vor KI-Phishing-Betrugsfällen schützen Wenn Sie eine E-Mail erhalten, die wie von einem legitimen Unternehmen aussieht, aber versucht, Ihnen eine Dringlichkeit für Ihre Entscheidungsfindung aufzuzwingen (zum Beispiel indem Sie Sie auffordern, eine Strafe zu zahlen oder sich in Ihr Konto einzuloggen, um zu vermeiden, dass es gelöscht wird), behandeln Sie sie mit äußerster Vorsicht. Dies ist eine typische Phishing-Taktik. Denken Sie daran, wenn Sie denken, dass die E-Mail höchstwahrscheinlich echt ist, können Sie immer eine frische Kommunikationslinie mit der Person oder dem Unternehmen eröffnen.

Wenn Sie beispielsweise eine verdächtig aussehende E-Mail von Ihrer Bank erhalten, in der steht, dass Ihr Konto von einer unbefugten dritten Partei zugegriffen wurde, antworten Sie nicht auf die E-Mail - kontaktieren Sie einfach das Kundenserviceteam Ihrer Bank selbst, indem Sie die auf ihrer Website aufgeführte Nummer oder Adresse verwenden. 2. KI-Betrugsversuche in sozialen Medien Kürzlich entdeckte das Cyber-Sicherheitsunternehmen Checkpoint eine neue Form von KI-Betrugsfällen, die auf Facebook im Umlauf sind. Sie haben beobachtet, wie Bedrohungsakteure gefälschte Facebook-Seiten erstellen, die "verbesserte" Versionen von KI-Tools wie "Smart Bard" bewerben. In Wirklichkeit existiert das Produkt jedoch nicht.

In dem Betrug nutzen Bedrohungsakteure gesponserte Beiträge, die diese Facebook-Seiten bewerben, um Werbung an ahnungslose Nutzer zu richten, die Links zu bösartigen Domains enthalten. Sobald die Nutzer die Domains besuchen, versuchen die Betrüger sie dazu zu bringen, "KI-Software" herunterzuladen, die tatsächlich informationsstehlende Malware ist. Nutzer, die auf den Betrug hereinfallen und diese herunterladen, haben ihre Passwörter und andere sensible Informationen von ihren Geräten extrahiert und an einen von den Bedrohungsakteuren betriebenen Server gesendet. Was bei diesem Betrug besonders bedenklich ist, ist die Tatsache, dass die Bedrohungsakteure große Anstrengungen unternommen haben, um ihre Facebook-Seiten legitim erscheinen zu lassen, einschließlich der Verwendung einer Armee von Bots, um positive Kommentare überall auf ihren Beiträgen zu hinterlassen. Einige der Seiten hatten laut Checkpoint enorme Likes.

Auf den ersten Blick sieht es alles ziemlich legitim aus - was nie ein gutes Zeichen ist. Wie man sich vor KI-Betrugsversuchen in sozialen Medien schützt Denken Sie daran, nur weil eine Seite in sozialen Medien viele Likes und viel Engagement auf ihren Beiträgen hat, heißt das nicht zwangsläufig, dass sie legitim ist - es ist überraschend einfach, diese Luft von Legitimität in sozialen Medien entweder zu kaufen oder künstlich zu erzeugen. Soziale Medien sind eine Brutstätte für Betrügereien, also sollten Sie Seiten, die Sie noch nie gesehen haben und die verbesserte Versionen vorhandener Software versprechen, mit Skepsis behandeln. Darüber hinaus wird ein schneller Google-Suchlauf zeigen, dass Programme wie "GPT-5" und "Bard V2" tatsächlich nicht existieren (zumindest noch nicht). Diese Art von wilden Versprechungen sind ein klares Zeichen dafür, dass etwas möglicherweise zu schön ist, um wahr zu sein - und in diesem Fall ist es das.

Ebenso bedeutet die Präsenz von legitimen aussehenden Links - die einfach in die Beschreibungsfelder der Seiten eingefügt werden können -, dass andere Links möglicherweise bösartig sind. Wenn Sie einen Chatbot herunterladen möchten, gehen Sie direkt auf die Website des Unternehmens oder der Organisation statt auf einen Link in sozialen Medien. 3. KI-Stimmen-Klon-Betrugsversuche KI-Stimmenbetrugsfälle sind eine Art von KI-unterstütztem Betrug, der in den letzten Monaten Schlagzeilen gemacht hat. Eine weltweite Umfrage von McAfee ergab kürzlich, dass 10% der Befragten persönlich von einem KI-Stimmenbetrugsversuch betroffen waren.

Weitere 15% gaben an, dass sie jemanden kannten, der angezielt wurde. 11% der US-Opfer, die bei KI-Stimmen-Klon-Betrugsfällen Geld verloren haben, wurden um Beträge von 5.000 bis 15.000 US-Dollar betrogen. Bei KI-Stimmenbetrugsfällen extrahieren bösartige Akteure Audio-Daten aus dem Social-Media-Konto eines Ziels und führen sie dann durch eine Text-zu-Sprache-App, die neuen Inhalt im Stil des Original-Audios generieren kann.

Diese Arten von Apps können online kostenlos abgerufen werden und haben legitime nicht-böswillige Verwendungszwecke. Der Betrüger wird eine Voicemail oder eine Sprachnachricht erstellen, die ihr Ziel in Not zeigt und dringend Geld benötigt. Diese wird dann an seine Familienmitglieder geschickt, in der Hoffnung, dass sie den Unterschied zwischen der Stimme ihres geliebten Menschen und einer vom KI generierten Version nicht erkennen können. Wie man sich vor KI-Stimmen-Betrugsversuchen schützt Die Federal Trade Commission (FTC) rät Verbrauchern, ruhig zu bleiben, wenn sie Korrespondenz erhalten, die vorgibt, von einem in Not geratenen geliebten Menschen zu stammen, und zu versuchen, die Nummer anzurufen, von der aus sie den Anruf erhalten haben, um zu bestätigen, dass er tatsächlich echt ist. Wenn Sie in dieser Situation sind und die Nummer nicht anrufen können, versuchen Sie die normale Telefonnummer der betreffenden Person anzurufen.

Wenn Sie keine Antwort bekommen, versuchen Sie, ihren Aufenthaltsort durch Kontaktaufnahme mit nahestehenden Personen zu überprüfen - und überprüfen Sie Apps wie Find My Friends, falls Sie sie verwenden, um zu sehen, ob sie sich an einem sicheren Ort befinden. Wenn Sie ihren Aufenthaltsort nicht überprüfen können, ist es wichtig, sofort die Strafverfolgungsbehörden zu kontaktieren. Wenn Sie herausfinden, dass es sich um einen Betrug handelt, stellen Sie sicher, dass Sie dies direkt der FTC melden. 4. Betrügerische ChatGPT-App-Betrügereien Wie bei jedem anderen großen Technikfimmel, wenn die Leute darüber sprechen - und noch wichtiger, danach suchen -, werden Betrügereien dies für böswillige Zwecke nutzen.

ChatGPT ist ein primäres Beispiel dafür. Ein kürzlich erschienener Bericht von Sophos fand eine Vielzahl von ChatGPT-adjazenten Apps, die als "Fleeceware" bezeichnet wurden. Fleeceware-Apps bieten ein kostenloses Programm mit eingeschränkter Funktionalität an und bombardieren die Nutzer mit In-App-Werbung, bis sie sich für ein überteuertes Abonnement anmelden. Laut dem Cyber-Sicherheitsunternehmen können die Entwickler dieser irreführenden Apps mit einer Kombination von Werbung innerhalb und außerhalb der App-Stores und gefälschten Bewertungen, die die Bewertungssysteme der Stores manipulieren, ahnungslose Gerätenutzer dazu verleiten, sie herunterzuladen. Eine gefälschte ChatGPT-App namens Genie, die wöchentliche Abonnements von 7 US-Dollar oder jährliche von 70 US-Dollar anbietet, hat laut SensorTower in einem Monat 1 Million US-Dollar verdient.

Andere haben Zehntausende von Pfund verdient. Eine andere App namens "Chat GBT" im Android-Store wurde speziell von Sophos in ihrem Bericht benannt. Nach Angaben des Cyber-Sicherheitsunternehmens sind die "pro"-Features, für die die Nutzer letztendlich einen hohen Betrag zahlen, "im Wesentlichen dasselbe" wie die kostenlose Version. Sie berichten auch, dass vor der Abschaltung der App der Bewertungsbereich mit "Kommentaren von Personen versehen war, die die App heruntergeladen haben und festgestellt haben, dass sie nicht funktioniert hat - entweder sie hat nur Anzeigen gezeigt oder hat nicht auf Fragen reagiert, wenn sie entsperrt wurde." Wie man sich vor betrügerischen ChatGPT-App-Betrügereien schützt Der einfachste Weg sicherzustellen, dass Sie diese Art von Abonnementgebühren nicht zahlen oder unerwünschte Malware herunterladen, besteht darin, die Apps einfach nicht herunterzuladen.

iPhone-Benutzer können jetzt die offizielle ChatGPT-App herunterladen, die kürzlich gestartet wurde. Es wird interessant sein zu sehen, ob dies das Ende der derzeit im App Store vorhandenen gefälschten ChatGPT-Apps markiert. Alternativ können sowohl iOS- als auch Android-Benutzer einen ChatGPT-Weblink zu ihrem Startbildschirm hinzufügen, und wenn Sie ein iPhone-Benutzer sind, können Sie eine Siri-Verknüpfung erstellen, die Sie direkt zu ChatGPT im Web bringt. Es gibt in diesem Kontext kaum praktische Unterschiede zwischen der Verknüpfung des Startbildschirms und einer nativen Anwendung. 5.

Gefälschte ChatGPT-Websites Neben gefälschten ChatGPT-Apps gibt es auch eine Vielzahl von gefälschten ChatGPT-Websites, die von dem großen Suchvolumen um den Begriff profitieren. Im Februar 2023 identifizierte der Twitter-Benutzer Alvosec vier Domains, die alle Malware unter einem ChatGPT-bezogenen Namen verteilten: ⚠️ Achten Sie auf diese #ChatGPT-Domains, die Malware verteilen chat-gpt-windows[.]com chat-gpt-online-pc[.]com chat-gpt-pc[.]online chat-gpt[.

]run@OpenAI #cybersecurity #infosec pic.twitter.com/hOZIVGN4Wi - Alvosec ⚛️ (@alvosec), 23. Februar 2023 Einige Berichte haben darauf hingewiesen, dass gefälschte ChatGPT-Websites den Chatbot von OpenAI als herunterladbare Windows-Anwendung präsentiert haben, anstatt als Webanwendung, was es ihnen ermöglicht, Malware auf Geräte zu laden. Wie man sich vor gefälschten ChatGPT-Websites schützt Denken Sie daran, ChatGPT ist ein Produkt von OpenAI, und der einzige Weg, auf den Chatbot zuzugreifen, ist über die mobile App oder deren spezifische Domain.

"ChatGPT[.]com" hat beispielsweise nichts mit dem echten, legitimen ChatGPT zu tun, und ChatGPT kann nicht wie eine Software-Client heruntergeladen werden. Seltsamerweise enthält die URL für die legitime ChatGPT-Anmelde- / Login-Landingpage nicht einmal das Wort "ChatGPT": https://chat.openai.com/auth/login.

Sie können sich auch über den Blog von OpenAI (https://openai.com/blog/chatg.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
Häufige Arten von Phishing-Angriffen und wie man sie verhindert
Mittwoch, 05. Juni 2024. Übliche Arten von Phishing-Angriffen und wie man sie verhindern kann

Gängige Arten von Phishing-Angriffen und wie man sie verhindert: Ein Rückblick auf die häufigsten Arten von Phishing-Angriffen und wie man sich davor schützen kann.

Was ist Phishing?
Mittwoch, 05. Juni 2024. Meistern Sie die Gefahren: Die Wahrheit über Phishing

Was ist Phishing. Erfahren Sie, was Phishing ist und bewaffnen Sie sich mit Wissen, Tools und bewährten Methoden, um sich selbst und Ihre Organisation vor diesen sich ständig weiterentwickelnden Bedrohungen zu schützen.

Phishing-Angriffe nehmen zu. So vermeiden Sie sie
Mittwoch, 05. Juni 2024. Phishing-Angriffe nehmen zu. So schützen Sie sich.

Phishing-Angriffe nehmen zu. Erfahren Sie, wie Sie sich davor schützen können.

Hacker nutzen gerne Microsoft und Google, um Benutzer mit ihren Cyberangriffen zu betrügen: Erfahren Sie mehr
Mittwoch, 05. Juni 2024. Hacker lieben es, Microsoft und Google zu verwenden, um Benutzer mit ihren Cyberangriffen zu betrügen: Erfahren Sie mehr

Hackern verwenden Microsoft und Google, um Benutzer mit ihren Cyberangriffen zu betrügen. Erfahren Sie mehr.

Schützen Sie Ihr Unternehmen vor Phishing-Angriffen
Mittwoch, 05. Juni 2024. Schützen Sie Ihr Unternehmen vor Phishing-Angriffen

Schützen Sie Ihr Geschäft vor Phishing-Angriffen: Tipps zum Erkennen und Verhindern von Cyberbedrohungen.

Lösungen zum Schutz und zur Prävention von Phishing
Mittwoch, 05. Juni 2024. Schutz vor Phishing: Kreative Lösungen für Prävention und Abwehr

Phishing-Schutzlösungen: Maßnahmen zur Verhinderung und Prävention von Phishing-Angriffen. Schützen Sie sich mit führenden E-Mail- und Kollaborationssicherheitsmaßnahmen sowie starker Authentifizierung.

So erkennen Sie Phishing-Angriffe und reagieren darauf
Mittwoch, 05. Juni 2024. Entlarve und Bekämpfe Phishing-Attacken: Die Kunst der virtuellen Selbstverteidigung

Ein Leitfaden zur Identifizierung und Reaktion auf Phishing-Angriffe - Tipps zum Schutz vor Online-Betrugsmethoden.