|
ΕΠΙΣΤΗΜΗ ΚΑΙ ΥΓΕΙΑ
|
Θεαματικά λάθη ιατρικής συμβουλής από πλατφόρμες τεχνητής νοημοσύνης
9/1/2026, 06:08
|
Ένας γιατρός, ως άνθρωπος, δεν θα συνταγογραφούσε ποτέ θαλιδομίδη σε μια έγκυο. Αυτό όμως δεν ισχύει για τις πλατφόρμες τεχνητής νοημοσύνης, στις οποίες στρέφονται όχι μόνο οι ασθενείς, αλλά πολλές φορές και οι γιατροί σε αναζήτηση ιατρικής συμβουλής… Πλατφόρμες όπως το ChatGPT ή το Gemini έχουν συστήσει σε εγκύους αυτό το φάρμακο, παρά τους κινδύνους για τρομακτικές γενετικές ανωμαλίες. Μάλιστα η σύσταση γίνεται με σιγουριά, κύρος και … λάθος.googletag.cmd.push(function() { googletag.display("300x250_m1"); });googletag.cmd.push(function() {googletag.display("300x250_middle_1")}) Τα λάθη αυτά μειώνονται μεν με τις επαναλαμβανόμενες ερωτήσεις, με την αναζήτηση των πηγών που οδήγησαν στους ισχυρισμούς αυτούς και μετά από πολλαπλούς ελέγχους. Τι γίνεται όμως όταν ένας κακόβουλος παράγοντας παρεμβαίνει στην πλατφόρμα με «άμεση ένεση», με σκοπό τα πράγματα να πάνε στραβά; Μελέτη που δημοσιεύθηκε στο JAMA, τονίζει ότι οι πλατφόρμες τεχνητής νοημοσύνης είναι εντελώς απροετοίμαστες για κάτι τέτοιο.document.addEventListener("DOMContentLoaded", function () {lazym2();}); Οι πλατφόρμες υποστήρ
Διαβάστε περισσότερα |
|
|
|