Πέμπτη, 22 Φεβρουαρίου 2024 22:18

Το deepfake μπορεί να απαγάγει εικονικά το παιδί σας - Προσοχή σε social media και κλήσεις

Γράφτηκε από την
Ad Slot

Υπάρχει η εικονική απαγωγή και είναι επικίνδυνη. Πώς να μην πέσετε θύμα απάτης.

Βρίσκεστε στη δύσκολη θέση να λάβετε μια εισερχόμενη κλήση από έναν άγνωστο αριθμό, όπου ακούτε τη φωνή του παιδιού σας να φωνάζει για βοήθεια. Αμέσως μετά, ο υποτιθέμενος «απαγωγέας» σας ζητά να καταβάλετε λύτρα για να απελευθερώσετε το παιδί σας, αλλιώς απειλεί ότι δεν θα το ξαναδείτε ποτέ, αυτή η διαδικασία αποτελεί ένα περιστατικό εικονικής απαγωγής, όπου οι απατεώνες χρησιμοποιούν τεχνητή νοημοσύνη για να προσομοιώσουν την ανθρώπινη φωνή και να εξαπατήσουν τα θύματά τους.

Υπάρχουν βασικά στάδια σε αυτήν την απάτη, όπως επισημαίνει η εταιρεία ψηφιακής ασφάλειας ESET. Οι απατεώνες πρώτα εντοπίζουν πιθανά θύματα με σκοπό να τα εκβιάσουν και να τους αποσπάσουν χρήματα. Στη συνέχεια, προχωρούν στην επιλογή του υποτιθέμενου «απαχθέντα», πιθανότατα το παιδί ενός από τους πιθανούς στόχους. Αυτό μπορεί να επιτευχθεί απλά με την αναζήτηση πληροφοριών στα κοινωνικά δίκτυα ή με άλλες δημόσια διαθέσιμες πληροφορίες.

Στη συνέχεια, οι απατεώνες δημιουργούν ένα φανταστικό σενάριο, προσπαθώντας να το καθιστούν όσο πιο πειστικό και τρομακτικό γίνεται. Όσο πιο φοβισμένο είναι το θύμα, τόσο πιο δύσκολο είναι για αυτό να λάβει λογικές αποφάσεις.

Όπως κάθε καλή απόπειρα κοινωνικής μηχανικής, οι απατεώνες θέλουν να επισπεύσουν τη λήψη απόφασης από το θύμα. Οι απατεώνες μπορεί στη συνέχεια να πραγματοποιήσουν έρευνα σε ανοικτές πηγές για να υπολογίσουν πότε θα ήταν η καλύτερη στιγμή για να τηλεφωνήσουν. Μπορεί να σαρώσουν τα μέσα κοινωνικής δικτύωσης ή άλλες πηγές για να το αποφασίσουν αυτό.

Η ιδέα είναι να επικοινωνήσουν μαζί σας την ώρα που το αγαπημένο σας πρόσωπο βρίσκεται αλλού, ιδανικά σε διακοπές. Αμέσως μετά, οι απατεώνες δημιουργούν τα ηχητικά deepfakes και πραγματοποιούν την κλήση. Χρησιμοποιώντας εύκολα διαθέσιμο λογισμικό, οι απατεώνες θα δημιουργήσουν ηχητικό αρχείο με τη «φωνή» του θύματος και θα το χρησιμοποιήσουν για να προσπαθήσουν να σας πείσουν ότι έχουν απαγάγει κάποιον συγγενή.

Μπορεί να χρησιμοποιήσουν και άλλες πληροφορίες που συλλέγουν από τα μέσα κοινωνικής δικτύωσης για να κάνουν την απάτη να ακούγεται πιο πειστική, για παράδειγμα αναφέροντας λεπτομέρειες για τον «απαχθέντα» που ένας ξένος μπορεί να μην γνωρίζει.

Υπάρχουν και άλλες παραλλαγές αυτής της μεθόδους και το πιο ανησυχητικό είναι το ενδεχόμενο εργαλεία τεχνητής νοημοσύνης, όπως το ChatGPT, να διευκολύνουν τους απατεώνες να βρουν τα ιδανικά θύματα, αναζητώντας ποιο είναι το προφίλ των ατόμων που είναι πιο πιθανό να πληρώσουν αν πέσουν θύματα μιας απάτης εικονικής απαγωγής.

Θα μπορούσαν επίσης να αναζητήσουν άτομα εντός μιας συγκεκριμένης γεωγραφικής περιοχής, με δημόσια προφίλ στα μέσα κοινωνικής δικτύωσης και με συγκεκριμένο κοινωνικοοικονομικό υπόβαθρο.

Μια δεύτερη επιλογή θα ήταν να χρησιμοποιήσουν μια επίθεση SIM swapping (όταν ένας κυβερνοεγκληματίας αποκτά αντίγραφο της κάρτας SIM ενός χρήστη) για να υποκλέψουν τον αριθμό τηλεφώνου του υποτιθέμενου «απαχθέντος» πριν από την απάτη. Αυτό θα έκανε το τηλεφώνημα της «απαγωγής» να φαίνεται ακόμα πιο αληθοφανές.

Μια έκθεση που δημοσιεύθηκε τον Μάιο προειδοποιούσε για νόμιμα εργαλεία μετατροπής κειμένου σε ομιλία που θα μπορούσαν να χρησιμοποιηθούν καταχρηστικά, καθώς και για το αυξανόμενο ενδιαφέρον του ηλεκτρονικού εγκλήματος για την κλωνοποίηση φωνής ως υπηρεσία (VCaaS). Εάν αυτό το σενάριο υλοποιηθεί, θα μπορούσε να δώσει τη δυνατότητα στους κυβερνοεγκληματίες να εξαπολύουν τέτοιες επιθέσεις, ειδικά εάν χρησιμοποιείται σε συνδυασμό με εργαλεία GenAI.

Στην πραγματικότητα, εκτός από την παραπληροφόρηση, η τεχνολογία deepfake χρησιμοποιείται επίσης για την παραβίαση του ηλεκτρονικού ταχυδρομείου επιχειρήσεων και για σεξουαλικό εκβιασμό.

Συμβουλές από την ESET

H ενημέρωση μπορεί να συμβάλει σε μεγάλο βαθμό στη μείωση της απειλής των deepfakes γενικά, και των εικονικών απαγωγών ειδικότερα. Σύμφωνα με την ESET, υπάρχουν πράγματα που εάν κάνουν οι άνθρωποι, ελαχιστοποιούν τις πιθανότητες να αποτελέσουν υποψήφιο θύμα μιας τηλεφωνικής απάτης.

1. Μη μοιράζεστε προσωπικές πληροφορίες στα μέσα κοινωνικής δικτύωσης. Αποφύγετε να δημοσιεύετε λεπτομέρειες, όπως διευθύνσεις και αριθμούς τηλεφώνου. Αν είναι δυνατόν, μην κοινοποιείτε φωτογραφίες ή βίντεο/ηχογραφήσεις της οικογένειάς σας και σίγουρα όχι λεπτομέρειες για τα σχέδια διακοπών των αγαπημένων σας προσώπων.

2. Διατηρήστε τα προφίλ σας στα μέσα κοινωνικής δικτύωσης ιδιωτικά, προκειμένου να ελαχιστοποιήσετε τις πιθανότητες να σας βρουν οι φορείς απειλής στο διαδίκτυο.

3. Να είστε σε επιφυλακή για μηνύματα ηλεκτρονικού «ψαρέματος» που θα μπορούσαν να έχουν σχεδιαστεί για να σας εξαπατήσουν, ώστε να δώσετε ευαίσθητες προσωπικές πληροφορίες ή κωδικούς σε λογαριασμούς κοινωνικών μέσων.

4. Προτρέψτε τα παιδιά και τους στενούς συγγενείς σας να εγκαταστήσουν εφαρμογές γεωγραφικού εντοπισμού.

5. Εάν λάβετε κάποια κλήση, κρατήστε τους «απαγωγείς» στο τηλέφωνο. Ταυτόχρονα προσπαθήστε να καλέσετε το υποτιθέμενο θύμα στην άλλη γραμμή ή βάλτε κάποιον γνωστό σας να το κάνει.

6. Μείνετε ψύχραιμοι, μη μοιραστείτε προσωπικές πληροφορίες και, αν είναι δυνατόν, βάλτε τους απατεώνες να απαντήσουν σε μια ερώτηση που μόνο ο απαχθέντας θα ήξερε και ζητήστε να μιλήσετε μαζί του.

7. Ειδοποιήστε την αστυνομία το συντομότερο δυνατό. Η εικονική απαγωγή είναι μόνο η αρχή. Ενημερωθείτε για τις τελευταίες απάτες και έχετε πολλές πιθανότητες να αποκρούσετε τις επιθέσεις εν τη γενέσει τους πριν προκαλέσουν σοβαρή συναισθηματική δυσφορία.

Πηγή: iEidiseis.gr
Τελευταία τροποποίηση στις Πέμπτη, 22 Φεβρουαρίου 2024 19:15

Σχετικά Άρθρα

  • Πώς θα θωρακίσετε τα τηλέφωνά σας από απάτες με deepfake
    Πώς θα θωρακίσετε τα τηλέφωνά σας από απάτες με deepfake

    Το 2019, ο διευθύνων σύμβουλος εταιρείας ενέργειας στο Ηνωμένο Βασίλειο εξαπατήθηκε μέσω deepfake φωνής που μιμούταν τον διευθύνοντα σύμβουλο της μητρικής εταιρείας στη Γερμανία, οδηγώντας στην πληρωμή σχεδόν 220.000 ευρώ σε κυβερνο-εγκληματίες.

    Αντίστοιχα, το 2024, ένας εργαζόμενος στο λογιστήριο πολυεθνικής εταιρείας έγινε θύμα μιας deepfake βιντεοκλήσης, με αποτέλεσμα η εταιρεία του να χάσει 25 εκατομμύρια δολάρια ΗΠΑ!

    Τα παραπάνω περιστατικά καταδεικνύουν την αυξανόμενη απειλή των deepfakes στον τομέα της ασφάλειας και με τις σύγχρονες δυνατότητες κλωνοποίησης και μετάφρασης φωνής που προσφέρει η τεχνητή νοημοσύνη, αυτή η απειλή έχει γίνει ευκολότερη από ποτέ.

    Συχνά, η χρήση deepfakes προϋποθέτει τη συλλογή βασικών προσωπικών στοιχείων, όπως ο αριθμός τηλεφώνου ενός ατόμου.

    Έξι συμβουλές ασφαλείας

    Η ομάδα της παγκόσμιας εταιρείας λογισμικού ασφαλείας ESET δίνει συμβουλές για την προστασία του αριθμού τηλεφώνου μας.

    1. Το νου σας στο ηλεκτρονικό ψάρεμα (phishing). Μην απαντάτε ποτέ σε ανεπιθύμητα μηνύματα/κλήσεις από άγνωστους αριθμούς, μην κάνετε κλικ σε τυχαίους συνδέσμους στα μηνύματα ηλεκτρονικού ταχυδρομείου/μηνύματά σας και θυμηθείτε να διατηρείτε την ψυχραιμία σας και να σκέφτεστε πριν αντιδράσετε σε μια φαινομενικά επείγουσα κατάσταση, γιατί έτσι σας παγιδεύουν.
    2. Ρωτήστε τον πάροχό σας σχετικά με τα μέτρα ασφαλείας της SIM. Ενδέχεται να διαθέτουν, για παράδειγμα, επιλογή για κλείδωμα της κάρτας για προστασία από το SIM Swapping ή πρόσθετα επίπεδα ασφαλείας λογαριασμού για την αποτροπή απάτης όπως η προώθηση κλήσεων.
    3. Προστατέψτε τους λογαριασμούς σας με έλεγχο ταυτότητας δύο παραγόντων, ιδανικά χρησιμοποιώντας ειδικά κλειδιά ασφαλείας, εφαρμογές ή βιομετρικά στοιχεία αντί για επαλήθευση μέσω SMS.
    4. Σκεφτείτε διπλά πριν δώσετε τον αριθμό τηλεφώνου σας σε μια ιστοσελίδα. Παρόλο που η χρήση του ως πρόσθετη επιλογή ανάκτησης για τις διάφορες εφαρμογές σας μπορεί να είναι χρήσιμη, άλλες μέθοδοι, όπως δευτερεύοντα μηνύματα ηλεκτρονικού ταχυδρομείου/εφαρμογές επαλήθευσης (authenticators), θα μπορούσαν να προσφέρουν μια πιο ασφαλή εναλλακτική λύση.
    5. Για αγορές μέσω διαδικτύου, σκεφτείτε να χρησιμοποιήσετε μια προπληρωμένη κάρτα SIM ή μια υπηρεσία VoIP αντί για τον κανονικό αριθμό του τηλεφώνου σας.
    6. Χρησιμοποιήστε μια αξιόπιστη λύση ασφαλείας για κινητά με φιλτράρισμα κλήσεων και βεβαιωθείτε ότι τα cookies τρίτων στο πρόγραμμα περιήγησής σας είναι αποκλεισμένα. Διερευνήστε άλλα εργαλεία και τεχνολογίες που ενισχύουν την ιδιωτικότητα.
    Πηγή: Ethnos.gr
  • Deepfake: Πώς με ένα βίντεο μπορούν να σας «αδειάσουν» τον λογαριασμό
    Deepfake: Πώς με ένα βίντεο μπορούν να σας «αδειάσουν» τον λογαριασμό

    Ανησυχία για τη δράση infostealers που χρησιμοποιούν AI και τραπεζικό κακόβουλο λογισμικό για να δημιουργήσουν ψεύτικα βίντεο.

    Οι τελευταίοι έξι μήνες αποτύπωσαν ένα δυναμικό τοπίο χρηματοοικονομικών απειλών Android κακόβουλου λογισμικού που έχει στόχο τους τραπεζικούς λογαριασμούς των θυμάτων μέσω κινητού τηλεφώνου – είτε με τη μορφή «παραδοσιακού» τραπεζικού κακόβουλου λογισμικού είτε, πιο πρόσφατα, με τη μορφή cryptostealers και deepfake βίντεο.

    Αυτό αναφέρει η εταιρεία κυβερνοασφάλειας ESET στην πρόσφατη Έκθεση Απειλών, η οποία συνοψίζει τις τάσεις του τοπίου απειλών που παρατηρούνται στην τηλεμετρία της ESET και τις παρατηρήσεις των ειδικών της ESET, που καλύπτει την περίοδο από τον Δεκέμβριο του 2023 έως τον Μάιο του 2024.

    Πιο αναλυτικά, το κακόβουλο λογισμικό infostealing μπορεί πλέον να υποδύεται εργαλεία δημιουργικής ΑΙ, και το νέο κακόβουλο λογισμικό για κινητά GoldPickaxe είναι ικανό να κλέβει δεδομένα αναγνώρισης προσώπου για τη δημιουργία deepfake βίντεο που χρησιμοποιούνται για την πιστοποίηση ψευδών οικονομικών συναλλαγών.

    Τους τελευταίους μήνες το κακόβουλο λογισμικό Infostealing άρχισε επίσης να μιμείται εργαλεία τεχνητής νοημοσύνης.

    Πρόσφατα διαπιστώθηκε ότι τα βιντεοπαιχνίδια και τα εργαλεία εξαπάτησης που χρησιμοποιούνται σε online παιχνίδια multiplayer περιέχουν κακόβουλο λογισμικό infostealer, όπως το RedLine Stealer, το οποίο ανιχνεύτηκε το πρώτο εξάμηνο του 2024 από την τηλεμετρία της ESET.

    «Το κακόβουλο λογισμικό GoldPickaxe, με εκδόσεις για Android και iOS, έχει βάλει στο στόχαστρο θύματα στη Νοτιοανατολική Ασία μέσω εντοπισμένων κακόβουλων εφαρμογών. Καθώς οι ερευνητές της ESET μελετούσαν αυτή την οικογένεια κακόβουλου λογισμικού, ανακάλυψαν ότι ένα παλαιότερο μέλος της οικογένειας του GoldPickaxe για Android, που ονομάζεται GoldDiggerPlus, έχει επίσης εισχωρήσει στη Λατινική Αμερική και τη Νότια Αφρική με πολλά θύματα σε αυτές τις περιοχές», εξηγεί ο Jiří Kropáč, διευθυντής της ESET Threat Detection.

    Μιμείται εργαλεία τεχνητής νοημοσύνης

    Τους τελευταίους μήνες το κακόβουλο λογισμικό Infostealing άρχισε επίσης να μιμείται εργαλεία τεχνητής νοημοσύνης. Το πρώτο εξάμηνο του 2024, το Rilide Stealer εντοπίστηκε να χρησιμοποιεί τα ονόματα βοηθών generative AI, όπως το Sora της OpenAI και το Gemini της Google, για να προσελκύσει δυνητικά θύματα. Σε μια άλλη κακόβουλη καμπάνια, το infostealer Vidar παραμόνευε πίσω από μια υποτιθέμενη εφαρμογή Windows desktop για τη γεννήτρια εικόνων AI Midjourney – παρόλο που το μοντέλο AI του Midjourney είναι προσβάσιμο μόνο μέσω του Discord. Από το 2023, η ESET Research έχει παρατηρήσει ολοένα και περισσότερους κυβερνοεγκληματίες να εκμεταλλεύονται τη δημοτικότητα της τεχνητής νοημοσύνης – μια τάση που αναμένεται να συνεχιστεί.

    Οι λάτρεις των παιχνιδιών που παρέκκλιναν από τη χρήση νόμιμων και ασφαλών μεθόδων για την πρόσβασή τους, δέχθηκαν επιθέσεις από infostealers, καθώς πρόσφατα διαπιστώθηκε ότι ορισμένα cracked βιντεοπαιχνίδια και εργαλεία εξαπάτησης που χρησιμοποιούνται σε online παιχνίδια πολλαπλών παικτών περιέχουν κακόβουλο λογισμικό infostealer, όπως το Lumma Stealer και το RedLine Stealer.

    Το RedLine Stealer ανιχνεύτηκε πολλές φορές το πρώτο εξάμηνο του 2024 από την τηλεμετρία της ESET, μετά από εκστρατείες στην Ισπανία, την Ιαπωνία και τη Γερμανία. Τα πρόσφατα κύματά του ήταν τόσο σημαντικά, ώστε οι ανιχνεύσεις του RedLine Stealer το πρώτο εξάμηνο του 2024 ξεπέρασαν κατά ένα τρίτο εκείνες του δεύτερου εξαμήνου του 2023.

    Ευπάθειες σε plug-in του WordPress

    Η Balada Injector, μια διαβόητη συμμορία που εκμεταλλεύεται τις ευπάθειες σε plug-in του WordPress, συνέχισε να δρα ακάθεκτη το πρώτο εξάμηνο του 2024, θέτοντας σε κίνδυνο πάνω από 20.000 ιστότοπους και συγκεντρώνοντας πάνω από 400.000 ανιχνεύσεις από την τηλεμετρία της ESET. Στον τομέα του ransomware, ο πρώην κορυφαίος παίκτης LockBit γκρεμίστηκε από το βάθρο του από την Επιχείρηση Chronos, μια επιχείρηση που διεξήχθη από τις αρχές επιβολής του νόμου διεθνώς τον Φεβρουάριο του 2024.

    Παρά το γεγονός ότι η τηλεμετρία της ESET κατέγραψε δύο σημαντικές εκστρατείες LockBit το πρώτο εξάμηνο του 2024, διαπιστώθηκε ότι αυτές οφείλονταν σε συμμορίες που δεν χρησιμοποιούσαν LockBit αλλά χρησιμοποιούσαν τον Builder LockBit που διέρρευσε

    Η Έκθεση Απειλών της ESET περιλαμβάνει στοιχεία σχετικά με την πρόσφατα δημοσιευμένη έρευνα για τη διαβόητη ομάδα Ebury, το κακόβουλο λογισμικό και το botnet της. Με την πάροδο των ετών, το Ebury έχει αναπτυχθεί ως backdoor για να θέσει σε κίνδυνο σχεδόν 400.000 διακομιστές Linux, FreeBSD και OpenBSD- περισσότεροι από 100.000 εξακολουθούσαν να βρίσκονται σε κίνδυνο μέχρι τα τέλη του 2023.

    Πηγή: ΟΤ - In.gr

  • Ο «ψεύτικος» Τζο Μπάιντεν που έγινε viral – Τι είναι τα deepfakes και τί ισχυρίζονται χρήστες του διαδικτύου
    Ο «ψεύτικος» Τζο Μπάιντεν που έγινε viral – Τι είναι τα deepfakes και τί ισχυρίζονται χρήστες του διαδικτύου

    Ένα βίντεο του προέδρου των ΗΠΑ, Τζο Μπάιντεν, το οποίο δημοσιεύτηκε στο διαδίκτυο, υπήρξε η αφορμή να ξεσπάσει έντονη φημολογία για τη γνησιότητά του αλλά και να μάθει το ευρύ κοινό τι είναι τα deepfakes.

    Πρόκειται για βίντεο που δημιουργούνται με τη χρήση τεχνητής νοημοσύνης με σκοπό να δείξει κάποιον να λέει ή να κάνει κάτι που δεν έκανε. Το BBC εξέτασε το εν λόγω βίντεο. Ποια είναι τα συμπεράσματα που έβγαλε;

    Οι χρήστες των μέσων κοινωνικής δικτύωσης ισχυρίζονται ότι το βίντεο έχει τροποποιηθεί για να τοποθετηθεί το πρόσωπο του προέδρου στο σώμα ενός ηθοποιού με τη χρήση τεχνητής νοημοσύνης. Στο κλιπ των 17 δευτερολέπτων ο πρόεδρος Μπάιντεν μιλάει για τις ταραχές της 6ης Ιανουαρίου, κατά τις οποίες διαδηλωτές εισέβαλαν στο Καπιτώλιο των ΗΠΑ. Επί του παρόντος, το περιστατικό διερευνάται από επιτροπή του Κογκρέσου.

    Το βίντεο δημοσιεύτηκε στον επίσημο λογαριασμό των Δημοκρατικών στο Twitter την Τετάρτη (27/07) και γρήγορα έγινε μέρος μιας ευρύτερης θεωρίας συνωμοσίας. Οι αναρτήσεις που αμφισβητούσαν τη νομιμότητα του βίντεο κοινοποιήθηκαν χιλιάδες φορές, μεταξύ άλλων από εξέχοντες ειδήμονες των δεξιών αμερικανικών τηλεοπτικών καναλιών Newsmax και One America News.

    Τελικά, είναι deepfake;

    Η γνησιότητα του βίντεο αμφισβητείται επειδή, σύμφωνα με κάποιους χρήστες, σε βίντεο που δημοσιεύτηκε την ίδια μέρα, ο πρόεδρος Μπάιντεν φαίνεται διαφορετικό. Αξίζει να σημειωθεί, ότι η γνησιότητα και του δεύτερου βίντεο αμφισβητείται από κάποιους.

    Ωστόσο, οι διαφορές στην εμφάνιση Μπάιντεν είναι σαφές ότι οφείλονται στον φωτισμό που χρησιμοποιήθηκε κατά τη μαγνητοσκόπηση. Ένα άλλο επιχείρημα είναι ότι ο Μπάιντεν δεν ανοιγοκλείνει καθόλου τα μάτια του καθ’ όλη τη διάρκεια του βίντεο. Αυτό, όμως, δεν αποδεικνύει ότι πρόκειται για deepfake. Σε μία ανάρτηση, η οποία έχει αναδημοσιευτεί σχεδόν 40.000 φορές αναφέρεται ότι «ένας φυσιολογικός άνθρωπος ανοιγοκλείνει τα μάτια του 15 με 20 φορές το λεπτό». Η αλήθεια είναι ότι ο μέσος άνθρωπος ανοιγοκλείνει τα μάτια του περίπου 12 φορές το λεπτό, όμως είναι απολύτως πιθανό να μην ανοιγοκλείσει τα μάτια του για παρατεταμένο χρονικό διάστημα πολύ μεγαλύτερο από τα 17 δευτερόλεπτα του βίντεο. Επιπλέον, στα μισά του κλιπ του Μπάιντεν υπάρχει μία περικοπή της μαγνητοσκόπησης, που μπορεί να σημαίνει ότι ο πρόεδρος δεν κρατούσε συνεχή οπτική επαφή με την κάμερα για όλο το χρονικό διάστημα. Η μεγαλύτερη εκδοχή του βίντεο που έχει δημοσιευθεί από τον Λευκό Οίκο δείχνει τον Μπάιντεν να ανοιγοκλείνει τα μάτια αρκετές φορές. Άλλωστε, τα deepfakes έχουν τη δυνατότητα να ανοιγοκλείνουν τα μάτια.

    «Πολλοί άνθρωποι πιστεύουν ότι μπορείτε να εντοπίσετε ένα deepfake επειδή δεν ανοιγοκλείνει τα μάτια, κάτι που στην πραγματικότητα δεν είναι σωστό. Ένα κακοφτιαγμένο deepfake μπορεί να μην ανοιγοκλείνει τα μάτια, αλλά αυτό δεν αποτελεί κατηγορηματικό σημάδι ότι πρόκειται για deepfake», είπε στο βρετανικό δίκτυο ο ειδικός στην τεχνολογία των deepfakes, Sam Gregory. «Υπήρξε μια έρευνα που έγινε πριν από τρία ή τέσσερα χρόνια, η οποία διαπίστωσε ότι τα deepfakes δεν ανοιγοκλείνουν τα μάτια, αλλά έκτοτε η τεχνολογία έχει βελτιωθεί», συμπλήρωσε.

    Παρόμοιοι ισχυρισμοί, εκτός από το εν λόγω βίντεο, έχουν ειπωθεί στο παρελθόν και για άλλους παγκόσμιους ηγέτες, συμπεριλαμβανομένου του πρώην προέδρου, Ντόναλντ Τραμπ. Οι περισσότεροι από τους ανθρώπους που διατυπώνουν αυτούς τους ισχυρισμούς πιστεύουν ότι πρόκειται για μία πρακτική του Λευκού Οίκου, προκειμένου να προστατευθεί ο πρόεδρος από τις αντιδράσεις του κοινού λόγω της ηλικίας του, της κακής υγείας του ή των δημόσιων ατοπημάτων του. Κάποιοι χρήστες του πιο ακραίου συνωμοσιολογικού περιθωρίου πιστεύουν ότι ο πρόεδρος Μπάιντεν έχει συλληφθεί ή εκτελεστεί ή ότι είναι μέρος μιας μοχθηρής συνωμοσίας και μαριονέτα μιας σκιώδους διαβολικής ελίτ που κυβερνά τον κόσμο.

    Πηγή: ethnos.gr

Sites του Ομίλου

Αγ. Κυριακής 4 | Πύργος Ηλείας | Τηλ: 26210 30400 | Δημοσιογραφικό τμήμα: 6976 869414 | Εμπορικό Τμήμα: 6945 556212 | email: [email protected]

Μ.Η.Τ. 242102 | ΑΦΜ: 105224221 - ΔΟΥ Πύργου | Aρ.Γ.Ε.ΜΗ. 141319425000 | Ατομική Επιχείρηση | Ιδιοκτήτρια - διευθύντρια - διαχειρίστρια - δικαιούχος ονόματος τομέα: Δήμητρα Βέλμαχου | Διευθυντής σύνταξης: Γιάννης Σπυρούνης

Up & High Media & Productions

ilia live smallCopyright © 2011 - 2024 Ηλεία Live!.
Με την επιφύλαξη παντός δικαιώματος.

Μέλος του 
Μητρώο ΜΗ

Βλαχαντώνη Ολυμπία - Μεσιτικό Γραφείο