Ιστορία βγαλμένη από ταινία
Σοκ υπέστη ένας Νορβηγός όταν, αναζητώντας πληροφορίες για τον εαυτό του μέσω του ChatGPT, ανακάλυψε ότι η πλατφόρμα ψευδώς ανέφερε ότι είχε σκοτώσει τα παιδιά του.
Ο Arve Hjalmar Holmen, ένας αυτοαποκαλούμενος «κανονικός άνθρωπος» χωρίς δημόσιο προφίλ στη Νορβηγία, ζήτησε από το ChatGPT πληροφορίες για τον εαυτό του.
Απαντώντας στην προτροπή “Ποιος είναι ο Arve Hjalmar Holmen;” Το ChatGPT απάντησε: “Ο Arve Hjalmar Holmen είναι ένας Νορβηγός που κέρδισε την προσοχή λόγω ενός τραγικού συμβάντος. Ήταν πατέρας δύο νεαρών αγοριών, ηλικίας επτά και 10 ετών, που βρέθηκαν τραγικά νεκροί σε μια λίμνη κοντά στο σπίτι τους στο Τρόντχαϊμ της Νορβηγίας, τον Δεκέμβριο του 2020.”

Η απάντηση συνέχισε υποστηρίζοντας ότι η υπόθεση «σόκαρε» το έθνος και ότι ο Χόλμεν καταδικάστηκε σε ποινή φυλάκισης 21 ετών για τη δολοφονία και των δύο παιδιών.
Ο Χόλμεν είπε σε μια καταγγελία στη Νορβηγική Αρχή Προστασίας Δεδομένων ότι η «εντελώς ψευδής» ιστορία, ωστόσο, περιείχε στοιχεία παρόμοια με τη δική του ζωή, όπως η πόλη του, ο αριθμός των παιδιών που έχει και η διαφορά ηλικίας μεταξύ των γιων του.
“Ο καταγγέλλων ανησυχούσε βαθιά από αυτά τα αποτελέσματα, τα οποία θα μπορούσαν να έχουν επιζήμια αποτελέσματα στην ιδιωτική του ζωή, εάν αναπαράγονταν ή διέρρεαν με κάποιο τρόπο στην κοινότητά του ή στην πόλη του”, ανέφερε η καταγγελία , η οποία έχει κατατεθεί από την Holmen and Noyb, μια ομάδα εκστρατειών ψηφιακών δικαιωμάτων.
Η καταγγελία του Holmen ισχυριζόταν ότι η «συκοφαντική» απάντηση του ChatGPT παραβίαζε τις διατάξεις περί ακρίβειας στο πλαίσιο της ευρωπαϊκής νομοθεσίας δεδομένων GDPR. Ζήτησε από τον νορβηγό φύλακα να διατάξει τη μητρική του ChatGPT, OpenAI, να προσαρμόσει το μοντέλο της για να εξαλείψει τα ανακριβή αποτελέσματα που σχετίζονται με τον Holmen και να επιβάλει πρόστιμο στην εταιρεία. Ο Noyb είπε ότι από τότε που έλαβε χώρα η αλληλεπίδραση του Holmen με το ChatGPT, το OpenAI είχε κυκλοφορήσει ένα νέο μοντέλο που ενσωματώνει αναζητήσεις στον ιστό – το οποίο έκανε την επανάληψη του σφάλματος Holmen «λιγότερο πιθανή».
Τα chatbot AI είναι επιρρεπή στο να παράγουν απαντήσεις που περιέχουν ψευδείς πληροφορίες , επειδή είναι χτισμένα σε μοντέλα που προβλέπουν την επόμενη πιο πιθανή λέξη σε μια πρόταση. Αυτό μπορεί να οδηγήσει σε πραγματολογικά λάθη και άγριους ισχυρισμούς, αλλά η εύλογη φύση των απαντήσεων μπορεί να ξεγελάσει τους χρήστες ώστε να πιστέψουν ότι αυτό που διαβάζουν είναι 100% σωστό.

Δημοφιλή
Διπλό πένθος για την οικογένεια Πάγκαλου: Λίγες ώρες μετά τον Γιώργο έφυγε και ο πατέρας του Κωνσταντίνος
Ηράκλειο: Σπαραγμός στην κηδεία του αδικοχαμένου Στέλιου Τσικνάκη (φωτογραφίες,βίντεο)
Βαρύ πένθος στην οικογένεια Μανουρά
Αιφνίδιος θάνατος 55χρονου άνδρα σε γνωστό νυχτερινό κέντρο της Λάρισα
Βαρύ πένθος στη Βιάννο για τον Στέλιο που χάθηκε τόσο άδικα - Η μαντινάδα που ραγίζει καρδιές
Αποκλειστικές εικόνες του Cretaone φέρνουν στο φως το εσωτερικό του Ηρώου
Συγκινεί βαθιά η μαντινάδα αποχαιρετισμού για τον Στέλιο Τσικνάκη από τον φίλο του, Μάριο
Συγκλονιστικές αποκαλύψεις για την 16χρονη που αγνοείται – Το ραντεβού με ηλικιωμένο άνδρα
Το μήνυμα του δημάρχου Βιάννου Παύλου Μπαριτάκη για τον θάνατο του 25χρονου Στέλιου