Ηράκλειο: 27oC

Τεχνητή νοημοσύνη: Η Meta υπόσχεται να εντοπίζει τις fake εικόνες στα social media

06.02.2024, 23:12

θα τοποθετείται σήμανση στις εικόνες που δημοσιεύουν οι χρήστες

Κατά τους επόμενους μήνες η Meta θα εντοπίζει κάθε εικόνα που θα δημιουργείται από την Τεχνητή Νοημοσύνη (AI) και θα αναρτάται στα κοινωνικά της δίκτυα. Το μέτρο λειτουργεί ήδη με το δικό της εργαλείο δημιουργίας εικόνων.

«Τους επόμενους μήνες θα τοποθετούμε σήμανση στις εικόνες που δημοσιεύουν οι χρήστες στο Facebook, το Instagram και το Threads όταν θα μπορούμε να ανιχνεύουμε ενδείξεις, σύμφωνες με τους κανόνες της βιομηχανίας, που σημαίνουν ότι έχουν δημιουργηθεί με την βοήθεια της Τεχνητής Νοημοσύνης», ανακοίνωσε ο Νικ Κλεγκ, υπεύθυνος Διεθνών Υποθέσεων της Meta.

Αν η Meta έχει ήδη θέσει σε εφαρμογή τις ετικέτες στις εικόνες που δημιουργούνται με το εργαλείο της Meta AI από την εφαρμογή του τον Δεκέμβριο, «θέλουμε να μπορούμε να το κάνουμε επίσης με περιεχόμενα που δημιουργούνται με τα εργαλεία άλλων εταιρειών», όπως οι Google, OpenAI, Microsoft, Adobe, Midjourney και Shutterstock, πρόσθεσε ο Νικ Κλεγκ.

«Δημιουργούμε αυτήν την ικανότητα ήδη από σήμερα και τους επόμενους μήνες θα αρχίσουμε να εφαρμόζουμε τις ετικέτες σε όλες τις γλώσσες στις οποίες λειτουργεί κάθε εφαρμογή».

Παραπληροφόρηση

Η ανακοίνωση της Meta γίνεται την ώρα που η εκτόξευση της γενετικής Τεχνητής Νοημοσύνης δημιουργεί φόβους μήπως κάποιοι χρησιμοποιήσουν τα εργαλεία αυτά για να σπείρουν το πολιτικό χάος μέσω της παραπληροφόρησης καθώς πλησιάζουν σημαντικές εκλογικές αναμετρήσεις που θα διεξαχθούν κατά την διάρκεια της χρονιάς σε χώρες όπου κατοικεί ο μισός πληθυσμός του πλανήτη.

Αν και ο Νικ Κλεγκ παραδέχεται ότι το σύστημα των ετικετών σε μεγάλη κλίμακα, μέσω αόρατων σημάνσεων, «δεν θα εξαλείψει τον κίνδυνο παραγωγής deepfakes, θα ελαχιστοποιήσει την διασπορά της στα όρια αυτού που επιτρέπει σήμερα η τεχνολογία».

«Δεν είναι τέλειο, η τεχνολογία δεν βρίσκεται ακόμη στο επίπεδο αυτό, αλλά είναι η πιο προωθημένη απόπειρα από όλες τις πλατφόρμες μέχρι στιγμής για να υπάρξει σημαντική διαφάνεια για δισεκατομμύρια ανθρώπους στο κόσμο», επέμεινε ο Νικ Κλεγκ.

«Ελπίζω πραγματικά ότι εφαρμόζοντας αυτό και βγαίνοντας στην πρωτοπορία, θα παρακινήσουμε και την υπόλοιπη βιομηχανία να συνεργασθεί και να προσπαθήσει να αναπτύξει τις κοινές τεχνικές ρυθμίσεις που έχουμε ανάγκη», είπε ο υπεύθυνος Διεθνών Υποθέσεων της Meta δηλώνοντας έτοιμος να μοιραστεί την ανοικτή της τεχνολογία όσο ευρύτερα γίνεται.

Η καλιφορνέζικη OpenAI, δημιουργός του ChatGPT, ανακοίνωσε επίσης στα μέσα του Ιανουαρίου την λειτουργία εργαλείων για την καταπολέμηση της παραπληροφόρησης εκφράζοντας την πρόθεση να μην επιτρέψει την χρησιμοποίηση των τεχνολογικών αυτών εργαλείων, όπως το ChatGPT και το DALL-E 3, για πολιτικούς σκοπούς.

 

Πηγή: ΑΠΕ ΜΠΕ

πριν από 7 λεπτά
Τεχνολογία

Κίνδυνος στο κινητό σας: Οι 9 εφαρμογές που… ξαφρίζουν ψηφιακά πορτοφόλια

Διαβάστε περισσότερα
πριν από 14 λεπτά
Κρήτη

Χειροπέδες στους 4 διακινητές των παράνομων μεταναστών στη Γαύδο

Διαβάστε περισσότερα
πριν από 23 λεπτά
Ελλάδα

Άφαντος ο κρατούμενος που βούτηξε στο Αιγαίο: Υπό κράτηση οι συνοδοί αστυνομικοί – Δείτε βίντεο από τη διαφυγή του

Διαβάστε περισσότερα
πριν από 30 λεπτά
Κρήτη

Κρήτη: Δεκάδες οι έφοδοι της Αστυνομίας σε σπίτια, επιχειρήσεις, αποθήκες για όπλα και ναρκωτικά (Φώτο)

Διαβάστε περισσότερα
πριν από 35 λεπτά
Style

Συνταγή για μπουγάτσα Θεσσαλονίκης με κρέμα

Διαβάστε περισσότερα
πριν από 40 λεπτά
Style

Κωνσταντίνος Αργυρός: Λαμπερή βάφτιση για το γιο του στη Μύκονο – Νονά η Μαριάννα Λάτση

Διαβάστε περισσότερα
πριν από 46 λεπτά
Ελλάδα

Έτρεχε και δεν έφτανε η Πυροσβεστική – Δεκάδες κλήσεις για πτώσεις δέντρων από τις καταιγίδες

Διαβάστε περισσότερα
πριν από 51 λεπτά
Ελλάδα

Κλήρωση Τζόκερ 31/08: Αυτοί είναι οι αριθμοί που κερδίζουν 1.700.000 ευρώ

Διαβάστε περισσότερα
πριν από 53 λεπτά
Κόσμος

Ούρσουλα φον ντερ Λάιεν: «Πολύ ακριβή τα σχέδια της ΕΕ για αποστολή στρατευμάτων στην Ουκρανία»

Διαβάστε περισσότερα
πριν από 1 ώρα
Υγεία

Εγκεφαλικό: Αυτοί είναι οι παράγοντες που σχετίζονται με αυξημένο κίνδυνο

Διαβάστε περισσότερα