Βρίσκεστε εδώ:Αρχική>>Τεχνολογία>>«Συναγερμός» για τηλεφωνικές απάτες με τεχνητή νοημοσύνη – Μεγάλη προσοχή συστήνουν οι ειδικοί

the roots web banners 06

«Συναγερμός» για τηλεφωνικές απάτες με τεχνητή νοημοσύνη – Μεγάλη προσοχή συστήνουν οι ειδικοί
26.09.2023 | 10:32

«Συναγερμός» για τηλεφωνικές απάτες με τεχνητή νοημοσύνη – Μεγάλη προσοχή συστήνουν οι ειδικοί

Συντάκτρια:  Δέσποινα Βασιλειάδου
Κατηγορία: Τεχνολογία

Ο συνταξιούχος γιατρός Ρούντολφ Κάμπερμπατς, από το Τενεσί των Ηνωμένων Πολιτειών, δεν είναι άνθρωπος που πέφτει εύκολα θύμα απάτης. Εκείνη, όμως, την ημέρα βρέθηκε πολύ κοντά στο να χάσει χιλιάδες δολάρια.

 

Το τηλέφωνο στο σπίτι του χτύπησε, ο αριθμός ήταν άγνωστος, όμως στο ακουστικό του άκουσε τη φωνή του εγγονού του, Έντι. Ο Έντι του ζητούσε 18.000 δολάρια για ζημιές που προκλήθηκαν στο αυτοκίνητό του από σοβαρό τροχαίο.

Ο κύριος Κάμπερμπατς είχε την ψυχραιμία να μην απαντήσει άμεσα, αλλά να καλέσει ο ίδιος τον εγγονό του, ο οποίος τον διαβεβαίωσε ότι τίποτα δεν του είχε συμβεί.

Ποιον άκουσε, λοιπόν, ο κύριος Κάμπερμπατς στο τηλέφωνο;

Όπως απέδειξαν οι σχετικές έρευνες, η φωνή ήταν -όντως- του εγγονού του. Είχε αναπτυχθεί με τη βοήθεια της τεχνιτής νοημοσύνης και τη χρήση βίντεο που ο Έντι είχε αναρτήσει στο Tiktok. Οι απατεώνες είχαν πάρει δείγματα από τη φωνή του Έντι και την ανασυνέθεσαν με τεχνολογία σύνθεσης ομιλίας.
 
Πρόκειται για μία μέθοδο που εμφανίζεται όλο και πιο συχνά στις Ηνωμένες Πολιτείες και οι ειδικοί θεωρούν ότι είναι θέμα χρόνου να διαδοθεί και στην Ευρώπη
 
Οι περισσότεροι πολίτες είναι πλέον υποψιασμένοι όταν λαμβάνουν τέτοια τηλεφωνήματα από αγνώστους, ωστόσο τα πράγματα αλλάζουν όταν ακούν τις φωνές των οικείων τους. 

«Ήμουν τόσο ταραγμένος που δεν το αμφισβήτησα καν. Λαμβάνω πολλές τέτοιες κλήσεις και πάντα αμφισβητώ αυτούς τους ανθρώπους. Αλλά σε αυτή την περίπτωση, δεν το αμφισβήτησα καθόλου» παραδέχθηκε στο yahoo finance ο  Ρούντολφ Κάμπερμπατς

Μια νέα εποχή απάτης

«Χρειάζονται μόνο τρία δευτερόλεπτα ήχου» προειδοποιεί μελέτη της McAfee. 

«Οι εγκληματίες του κυβερνοχώρου χρησιμοποιούν καινούργια εργαλεία κλωνοποίησης φωνής τεχνητής νοημοσύνης (AI) και δημιουργούν μια νέα εποχή απάτης. Με ένα μικρό δείγμα ήχου, μπορούν να κλωνοποιήσουν τη φωνή σχεδόν οποιουδήποτε και να στείλουν ψεύτικα μηνύματα μέσω φωνητικού ταχυδρομείου ή φωνητικών μηνυμάτων.

Ο στόχος, τις περισσότερες φορές, είναι να ξεγελαστούν οι άνθρωποι και να χάσουν εκατοντάδες, αν όχι χιλιάδες, δολάρια.»

Η διεθνής μέλετη της McAfee, με τίτλο “Artificial Imposters—Cybercriminals Turn to AI Voice Cloning for a New Breed of Scam”, διαπίστωσε ότι από τους 7.000 ερωτηθέντες, 1 στους 4 δήλωσε ότι είχε βιώσει μια απάτη κλωνοποίησης φωνής με τεχνητή νοημοσύνη ή ότι γνώριζε κάποιον που είχε δεχθεί τέτοια επίθεση. 

Η ερευνητική ομάδα του McAfee Labs ανακάλυψε πόσο εύκολα μπορούν οι εγκληματίες στον κυβερνοχώρο να πετύχουν σε αυτές τις απάτες. Το 70% των ερωτηθέντων στην έρευνα παραδέχθηκε ότι δεν ήταν σίγουροι ότι μπορούσαν να διακρίνουν τη διαφορά μεταξύ μιας κλωνοποιημένης φωνής και της πραγματικής. 

Η ίδια μελέτη ανέφερε ότι το 77% όσων έλαβαν φωνητική κλήση με χρήση τεχνητής νοημοσύνης έχασαν χρήματα.

Από τα άτομα που ανέφεραν ότι έχασαν χρήματα, το 36% είπε ότι έχασε ποσά μεταξύ 500 και 3.000 δολάριων, ενώ το 7% έχασε ποσά μεταξύ 5.000 και 15.000 δολαρίων.

Σχεδόν οι μισοί (45%) από τους ερωτηθέντες είπαν ότι θα απαντούσαν σε φωνητικό μήνυμα που θα πίστευαν ότι είναι από φίλο ή αγαπημένο πρόσωπο και θα έλεγε ότι έχει ανάγκη από χρήματα, ιδιαίτερα αν πίστευαν ότι το αίτημα είχε προέλθει από : 

  • σύντροφό ή σύζυγό (40% )
  • μητέρα (24%) 
  • παιδί (20%).

Επίσης, ανέφεραν ότι πιθανότατα θα απαντούσαν σε ένα από αυτά τα μηνύματα εάν ο αποστολέας του μηνύματος έλεγε ότι:

  • έχει πέσει θύμα τροχαίου (48%).
  • έχει πέσει θύμα κλοπής (47%).
  • έχει χάσει το τηλέφωνο ή το πορτοφόλι (43%).
  • χρειάζεται βοήθεια ενώ ταξιδεύει στο εξωτερικό (41%).

Τρόποι προστασίας

Οι ερευνητές στο McAfee Labs διαπίστωσαν ότι -με μεγάλη ευκολία- μπορεί κάποιος να βρει πάνω από 12 ελεύθερα διαθέσιμα στο διαδίκτυο εργαλεία κλωνοποίησης φωνής AI.

Η χρήση τεχνητής νοημοσύνης βοηθάει τους εγκληματίες να «αναβαθμίσουν» απάτες που μέχρι τώρα γίνονταν μέσω τηλεφωνημάτων ή γραπτών μηνυμάτων: απάτες με «δόλωμα» την χορήγηση βραβείου ή την επιστροφή χρημάτων, με αναφορές σε υποτιθέμενα φορολογικά χρέη, ακόμα και απάτες με χρήση οικογενειακών επαφών. Όλες αυτές μπορούν να γίνουν πολύ πιο πιστευτές αν το υποψήφιο θύμα ακούσει μία οικεία ή μια “επαγγελματική” φωνή.

Για τον λόγο αυτό, οι ειδικοί της κυβερνοασφάλειας προειδοποιούν τους πολίτες να είναι εξαιρετικά προσεκτικοί και καχύποπτοι. Προτείνουν να εισάγουν λέξεις- κωδικούς στην επικοινωνία τους με τα άμεσα μέλη της οικογένειάς τους, ώστε να μπορούν να διαπιστώσουν αν όντως είναι αυτά που τους καλούν. 

Επίσης, προτείνουν στους χρήστες να κρατούν ιδιωτικούς τους λογαριασμούς τους στα μέσα κοινωνικής δικτύωσης, ώστε να μην μπορεί ο καθένας να έχει πρόσβαση στο υλικό που ανεβάζουν. 

Προειδοποιούν, επίσης, ότι η μεγάλη έκθεση τα κοινωνικά μέσα μπορεί να αποδειχθεί επικίνδυνη.

«Τα μέσα κοινωνικής δικτύωσης αποτελούν “χρυσωρυχείο” για τους απατεώνες που θέλουν να προσαρμόσουν τα μηνύματά τους σε συγκεκριμένα άτομα» προειδοποίησε ο Γουασίμ Κάλεντ, διευθύνων σύμβουλος της  εταιρείας πληροφοριών κινδύνου Blackbird.AI. 


Πηγή: newmoney.gr

Ακολουθήστε το limnosfm100.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.
Μοιραστείτε το

 

banner 300x250 superRunner thessaloniki GR

 

koumianou

 

kyvos optimized400

 

stenos pccom

 

youtube channel