Ανησυχητική μελέτη: Πιο αξιόπιστο από τους γιατρούς βρίσκουν οι γονείς το ChatGPT σε θέματα υγείας

ΠΟΛΙΤΗΣ NEWS

Header Image

Διεξαγωγή μελέτης με 116 γονείς ηλικίας 18 έως 65 ετών

Οι γονείς εμπιστεύονται το ChatGPT για ιατρικές συμβουλές αντί για πραγματικούς γιατρούς, σύμφωνα με μια νέα μελέτη του Πανεπιστημίου του Κάνσας.

«Όταν ξεκινήσαμε αυτή την έρευνα, ήταν αμέσως μετά την κυκλοφορία της πρώτης έκδοσης του ChatGPT. Είχαμε ανησυχίες σχετικά με το πώς οι γονείς θα χρησιμοποιούσαν αυτή τη νέα, εύκολη μέθοδο για να συλλέγουν πληροφορίες για την υγεία των παιδιών τους», δήλωσε η επικεφαλής συγγραφέας της μελέτης και διδακτορική φοιτήτρια Calissa Leslie-Miller. «Οι γονείς συχνά καταφεύγουν στο διαδίκτυο για συμβουλές, οπότε θέλαμε να καταλάβουμε πώς θα ήταν η χρήση του ChatGPT και τι θα έπρεπε να μας ανησυχεί».

Για να καταλήξουν σε αυτά τα συμπεράσματα, η Leslie-Miller και οι συνάδελφοί της διεξήγαγαν μια μελέτη με 116 γονείς ηλικίας 18 έως 65 ετών, η οποία δημοσιεύθηκε πρόσφατα στο Journal of Pediatric Psychology.

Στους συμμετέχοντες δόθηκε κείμενο σχετικό με θέματα υγείας, με περιεχόμενο που δημιουργήθηκε από επαγγελματίες υγείας και από το chatbot ChatGPT της εταιρείας OpenAI. Δεν τους είπαν ποιος ήταν ο συντάκτης, και τους ζητήθηκε να αξιολογήσουν τα κείμενα με βάση πέντε κριτήρια: ηθική, αξιοπιστία, εμπειρογνωμοσύνη, ακρίβεια και πόσο πιθανό θα ήταν εκείνοι να βασιστούν στις πληροφορίες αυτές.

Σε πολλές περιπτώσεις, όπως αναφέρει ο Independent, οι γονείς δεν μπορούσαν να διακρίνουν ποιο περιεχόμενο δημιουργήθηκε από το ChatGPT και ποιο από τους εμπειρογνώμονες. Όταν υπήρχαν σημαντικές διαφορές στις αξιολογήσεις, το ChatGPT ήταν εκείνο που είχε κριθεί ως πιο αξιόπιστο και ακριβές σε σχέση με τους εμπειρογνώμονες.

Οι «παραισθήσεις» της τεχνητής νοημοσύνης

«Αυτό το αποτέλεσμα μας εξέπληξε, ειδικά δεδομένου ότι η μελέτη πραγματοποιήθηκε στην αρχή της κυκλοφορίας του ChatGPT», δήλωσε η Leslie-Miller.

«Αρχίζουμε να βλέπουμε ότι η τεχνητή νοημοσύνη ενσωματώνεται με τρόπους που μπορεί να μην είναι άμεσα εμφανείς και οι άνθρωποι μπορεί να μην αναγνωρίζουν καν πότε διαβάζουν κείμενο που έχει δημιουργηθεί από AI σε σχέση με περιεχόμενο εμπειρογνωμόνων».

Το ChatGPT κυκλοφόρησε τον Νοέμβριο του 2022 και πλέον έχει περισσότερους από 250 εκατομμύρια ενεργούς μηνιαίους χρήστες. Αν και αποδίδει καλά σε πολλές περιπτώσεις και αποτελεί χρήσιμο εργαλείο, είναι επίσης ικανό να παράγει εσφαλμένα στοιχεία τα οποία εμφανίζει ως αληθινά.

«Κατά τη διάρκεια της μελέτης, ορισμένα κείμενα αυτής της πρώτης έκδοσης του ChatGPT περιείχαν εσφαλμένες πληροφορίες», δήλωσε η Leslie-Miller.

«Αυτό είναι ανησυχητικό επειδή, όπως γνωρίζουμε, τα εργαλεία AI όπως το ChatGPT είναι επιρρεπή σε “παραισθήσεις” – λάθη που συμβαίνουν όταν το σύστημα δεν έχει επαρκές πλαίσιο».

«Στην υγεία των παιδιών, όπου οι συνέπειες μπορεί να είναι σημαντικές, είναι ζωτικής σημασίας να αντιμετωπίσουμε αυτό το ζήτημα», δήλωσε η ίδια. «Ανησυχούμε ότι οι άνθρωποι μπορεί να βασίζονται όλο και περισσότερο στην τεχνητή νοημοσύνη για συμβουλές υγείας χωρίς την κατάλληλη επίβλεψη από ειδικούς».

Πηγή: cnn.gr

 

ΤΑ ΑΚΙΝΗΤΑ ΤΗΣ ΕΒΔΟΜΑΔΑΣ

Λογότυπο Altamira

Πολιτική Δημοσίευσης Σχολίων

Οι ιδιοκτήτες της ιστοσελίδας www.politis.com.cy διατηρούν το δικαίωμα να αφαιρούν σχόλια αναγνωστών, δυσφημιστικού και/ή υβριστικού περιεχομένου, ή/και σχόλια που μπορούν να εκληφθεί ότι υποκινούν το μίσος/τον ρατσισμό ή που παραβιάζουν οποιαδήποτε άλλη νομοθεσία. Οι συντάκτες των σχολίων αυτών ευθύνονται προσωπικά για την δημοσίευση τους. Αν κάποιος αναγνώστης/συντάκτης σχολίου, το οποίο αφαιρείται, θεωρεί ότι έχει στοιχεία που αποδεικνύουν το αληθές του περιεχομένου του, μπορεί να τα αποστείλει στην διεύθυνση της ιστοσελίδας για να διερευνηθούν. Προτρέπουμε τους αναγνώστες μας να κάνουν report / flag σχόλια που πιστεύουν ότι παραβιάζουν τους πιο πάνω κανόνες. Σχόλια που περιέχουν URL / links σε οποιαδήποτε σελίδα, δεν δημοσιεύονται αυτόματα.

Διαβάστε περισσότερα

Κάντε εγγραφή στο newsletter του «Π»

Εγγραφείτε στο Newsletter της εφημερίδας για να λαμβάνετε καθημερινά τις σημαντικότερες ειδήσεις στο email σας.

ΕΓΓΡΑΦΗ

Ακολουθήστε μας στα social media

App StoreGoogle Play