Να τροφοδοτήσουν την εφαρμογή τεχνητής νοημοσύνης, Grok με τα ιατρικά τους δεδομένα προκειμένου να βελτιωθεί η ακρίβειά του καλεί τους χρήστες του X ο κ. Ίλον Μασκ.
Στο πλαίσιο αυτό κατά τις τελευταίες εβδομάδες, οι χρήστες του X έχουν αναρτήσει στην πλατφόρμα κοινωνικής δικτύωσης, ακτινογραφίες, μαγνητικές και αξονικές τομογραφίες, καθώς και άλλες ιατρικές εικόνες στο Grok, το chatbot τεχνητής νοημοσύνης του Χ. «Αυτό είναι ακόμα πρώιμο στάδιο, αλλά είναι ήδη αρκετά ακριβές και θα γίνει εξαιρετικά καλό», έγραψε ο κ. Μασκ σε ανάρτησή του. Μερικοί χρήστες έχουν επισημάνει τα λάθη του Grok, ενώ άλλοι το έχουν επαινέσει. Μάλιστα, μερικοί γιατροί το έχουν χρησιμοποιήσει για να δουν αν θα επιβεβαιώσει τα δικά τους ευρήματα.
Ωστόσο η απόφαση των χρηστών να δημοσιοποιήσουν τόσο ευαίσθητες πληροφορίες έχει θορυβήσει ορισμένους ειδικούς σε θέματα ιατρικού απορρήτου. Μεταξύ αυτών και ο καθηγητής βιοϊατρικής πληροφορικής στο Πανεπιστήμιο Vanderbilt Δρ. Μπράντλεϊ Μάλιν επεσήμανε ότι: «Αυτές είναι πολύ προσωπικές πληροφορίες και δεν ξέρετε ακριβώς τι θα κάνει το Grok με αυτές». Όταν οι εταιρείες τεχνολογίας συνεργάζονται με ένα νοσοκομείο για τη λήψη δεδομένων, υπάρχουν λεπτομερείς συμφωνίες σχετικά με τον τρόπο αποθήκευσης και κοινής χρήσης τους, επεσήμανε ο Δρ. Μάλιν. Στην πολιτική απορρήτου της, η Χ έχει πει ότι δεν θα πουλήσει δεδομένα χρηστών σε τρίτους, ωστόσο τα μοιράζεται με «σχετικές εταιρείες». Επίσης, η εταιρεία αναφέρει ότι δεν στοχεύει στη συλλογή ευαίσθητων προσωπικών πληροφοριών, συμπεριλαμβανομένων των δεδομένων υγείας. Από την πλευρά του ο επίκουρος καθηγητής ιατρικής δεοντολογίας και πολιτικής υγείας στο Πανεπιστήμιο της Πενσυλβάνια, κ. Μάθιου ΜακΚόι σημείωσε ότι μπορεί να υπάρχουν σαφείς προστατευτικές δικλείδες ασφαλείας σχετικά με τα ιατρικά δεδομένα που έχουν αναρτηθεί στο Grok, τις οποίες όμως η εταιρεία δεν έχει περιγράψει δημόσια: «Αλλά ως μεμονωμένος χρήστης, θα ένιωθα άνετα να συνεισφέρω τα ιατρικά δεδομένα μου; Σίγουρα όχι.»
Τα λανθασμένα αποτελέσματα θα μπορούσαν να οδηγήσουν σε αχρείαστες δαπάνες, σημείωσε ο Σούτσι Σάρια, διευθυντής του εργαστηρίου μηχανικής μάθησης και υγειονομικής περίθαλψης στο Πανεπιστήμιο Johns Hopkins. Η εκπαίδευση των μοντέλων τεχνητής νοημοσύνης ώστε να παράγουν ακριβή αποτελέσματα σχετικά με την υγεία ενός ατόμου, απαιτεί υψηλής ποιότητας και ποικίλα δεδομένα, βαθιά τεχνογνωσία στην ιατρική, την τεχνολογία, το σχεδιασμό προϊόντων και πολλά άλλα, εξήγησε ο Δρ. Σάρια, ο οποίος είναι επίσης ο ιδρυτής της Bayesian Health, μιας εταιρείας που αναπτύσσει εργαλεία τεχνητής νοημοσύνης για χώρους υγειονομικής περίθαλψης. Οτιδήποτε λιγότερο από αυτό, είπε, «μοιάζει λίγο με έναν χομπίστα χημικό που ανακατεύει συστατικά στον νεροχύτη της κουζίνας του». Μερικοί χρήστες μπορεί να γνωρίζουν τους κινδύνους και να αισθάνονται άνετα να ανεβάζουν τα δεδομένα τους. «Εάν πιστεύετε ακράδαντα ότι οι πληροφορίες σας πρέπει να είναι εκεί έξω, ακόμα κι αν δεν προστατεύονται, τότε κάντε το. Αλλά προσέξτε» προειδοποίησε ο Δρ. Μάλιν.
Πηγή:ertnews.gr