AI ఓవర్వ్యూలు | కింద ఆరోగ్య నిరాకరణలను తగ్గించడం ద్వారా Google వినియోగదారులను ప్రమాదంలో పడేస్తుంది Google

Google తన AI- రూపొందించిన వైద్య సలహా తప్పు కావచ్చని భద్రతా హెచ్చరికలను తగ్గించడం ద్వారా ప్రజలకు హాని కలిగించే ప్రమాదం ఉంది.
ఆరోగ్యం వంటి సున్నితమైన అంశాలకు సంబంధించిన ప్రశ్నలకు సమాధానమిచ్చేటప్పుడు, శోధన ఫలితాలపై కనిపించే దాని AI ఓవర్వ్యూలు, కేవలం దాని సారాంశాలపై మాత్రమే ఆధారపడకుండా, నిపుణుల సహాయం కోసం వినియోగదారులను ప్రాంప్ట్ చేస్తాయని కంపెనీ చెబుతోంది. “నిపుణుల సలహాను వెతకడం లేదా అందించిన సమాచారాన్ని ధృవీకరించడం ఎప్పుడు ముఖ్యమో AI ఓవర్వ్యూలు ప్రజలకు తెలియజేస్తాయి” గూగుల్ తెలిపింది.
కానీ గార్డియన్ వినియోగదారులకు మొదట వైద్య సలహాను అందించినప్పుడు కంపెనీ అటువంటి నిరాకరణలను కలిగి ఉండదని కనుగొంది.
వినియోగదారులు అదనపు ఆరోగ్య సమాచారాన్ని అభ్యర్థించాలని ఎంచుకుని, “మరింత చూపించు” అనే బటన్పై క్లిక్ చేస్తే మాత్రమే Google హెచ్చరికను జారీ చేస్తుంది. అయినప్పటికీ, సేఫ్టీ లేబుల్లు ఉత్పాదక AIని ఉపయోగించి సమీకరించబడిన అన్ని అదనపు వైద్య సలహాల క్రింద మరియు చిన్న, తేలికైన ఫాంట్లో మాత్రమే కనిపిస్తాయి.
“ఇది సమాచార ప్రయోజనాల కోసం మాత్రమే,” ప్రారంభ సారాంశాన్ని చూసిన తర్వాత మరిన్ని వివరాల కోసం క్లిక్ చేసి, AI ఓవర్వ్యూ చివరి వరకు నావిగేట్ చేసే వినియోగదారులకు నిరాకరణ చెబుతుంది. “వైద్య సలహా లేదా రోగ నిర్ధారణ కోసం, నిపుణుడిని సంప్రదించండి. AI ప్రతిస్పందనలలో తప్పులు ఉండవచ్చు.”
వినియోగదారులకు మొదట వైద్య సలహా అందించినప్పుడు లేదా వారు AI స్థూలదృష్టి క్రింద మరియు చిన్న, తేలికైన ఫాంట్లో కనిపిస్తారని Google దాని నిరాకరణలను తిరస్కరించలేదు. AI స్థూలదృష్టి “వ్యక్తులకు వృత్తిపరమైన వైద్య సలహాలను పొందమని ప్రోత్సహిస్తుంది” మరియు “సముచితమైనప్పుడు” సారాంశంలోనే వైద్య సంరక్షణను కోరడం గురించి తరచుగా ప్రస్తావిస్తుంది, ఒక ప్రతినిధి చెప్పారు.
గార్డియన్ యొక్క పరిశోధనలను సమర్పించిన AI నిపుణులు మరియు రోగి న్యాయవాదులు ఆందోళన చెందుతున్నారని చెప్పారు. నిరాకరణలు ఒక ముఖ్యమైన ప్రయోజనాన్ని అందిస్తాయి మరియు వినియోగదారులకు మొదట వైద్య సలహాను అందించినప్పుడు అవి ప్రముఖంగా కనిపిస్తాయి.
“వినియోగదారులకు వైద్య సమాచారం అందించినప్పుడు నిరాకరణలు లేకపోవడం అనేక ప్రమాదాలను సృష్టిస్తుంది” అని మసాచుసెట్స్ ఇన్స్టిట్యూట్ ఆఫ్ టెక్నాలజీ (MIT)లో అసిస్టెంట్ ప్రొఫెసర్, సాంకేతిక నిపుణుడు మరియు పరిశోధకుడు మరియు AI మరియు మానవ-కంప్యూటర్ ఇంటరాక్షన్లో ప్రపంచ ప్రఖ్యాత నిపుణుడు పాట్ పతరనుతాపోర్న్ అన్నారు.
“మొదట, అత్యంత అధునాతన AI మోడల్లు కూడా ఇప్పటికీ తప్పుడు సమాచారాన్ని భ్రమింపజేస్తున్నాయి లేదా సైకోఫాంటిక్ ప్రవర్తనను ప్రదర్శిస్తాయి, ఖచ్చితత్వంపై వినియోగదారు సంతృప్తికి ప్రాధాన్యత ఇస్తున్నాయి. ఆరోగ్య సంరక్షణ సందర్భాలలో, ఇది నిజంగా ప్రమాదకరం.
“రెండవది, సమస్య కేవలం AI పరిమితులకు సంబంధించినది కాదు – ఇది సమీకరణం యొక్క మానవ వైపుకు సంబంధించినది. వినియోగదారులు అవసరమైన అన్ని సందర్భాలను అందించకపోవచ్చు లేదా వారి లక్షణాలను తప్పుగా గమనించడం ద్వారా తప్పు ప్రశ్నలను అడగవచ్చు.
“నిరాకరణలు కీలకమైన జోక్యానికి ఉపయోగపడతాయి. అవి ఈ ఆటోమేటిక్ ట్రస్ట్కు భంగం కలిగిస్తాయి మరియు వినియోగదారులు వారు స్వీకరించే సమాచారంతో మరింత విమర్శనాత్మకంగా పాల్గొనేలా ప్రేరేపిస్తాయి.”
లండన్లోని క్వీన్ మేరీ యూనివర్శిటీలో బాధ్యతాయుతమైన AI ప్రొఫెసర్ అయిన గినా నెఫ్, “చెడు AI స్థూలదృష్టితో సమస్య డిజైన్ ద్వారా ఉంది” అని మరియు Google నిందించింది. “AI ఓవర్వ్యూలు వేగం కోసం రూపొందించబడ్డాయి, ఖచ్చితత్వం కోసం కాదు మరియు ఇది ఆరోగ్య సమాచారంలో తప్పులకు దారి తీస్తుంది, ఇది ప్రమాదకరమైనది.”
జనవరిలో, ఒక గార్డియన్ విచారణ Google AI స్థూలదృష్టిలో తప్పుడు మరియు తప్పుదారి పట్టించే ఆరోగ్య సమాచారం ద్వారా ప్రజలు హాని కలిగించే ప్రమాదం ఉందని వెల్లడించారు.
నెఫ్ చెప్పారు విచారణ యొక్క ఫలితాలు ప్రముఖ నిరాకరణలు ఎందుకు అవసరం అని చూపించింది. “గూగుల్ వ్యక్తులు ఏదైనా నిరాకరణను కనుగొనే ముందు వాటిని క్లిక్ చేసేలా చేస్తుంది” అని ఆమె చెప్పింది. “త్వరగా చదివే వ్యక్తులు AI స్థూలదృష్టి నుండి పొందే సమాచారం దాని కంటే మెరుగైనదని భావించవచ్చు, కానీ అది తీవ్రమైన తప్పులు చేయగలదని మాకు తెలుసు.”
గార్డియన్ రిపోర్టింగ్ను అనుసరించి, Google AI ఓవర్వ్యూలు తీసివేయబడ్డాయి కొన్నింటికి కానీ అన్ని వైద్య శోధనలు కాదు.
Stanford University’s centre for AI in medicine and imaging (AIMI)కి చెందిన పరిశోధకురాలు సోనాలి శర్మ ఇలా అన్నారు: “ప్రధాన సమస్య ఏమిటంటే, ఈ Google AI ఓవర్వ్యూలు శోధన పేజీలో చాలా ఎగువన కనిపిస్తాయి మరియు తరచుగా సమాచారాన్ని యాక్సెస్ చేయడానికి మరియు వీలైనంత త్వరగా సమాధానాన్ని పొందడానికి వినియోగదారుడి ప్రశ్నకు పూర్తి సమాధానంగా భావించే వాటిని అందిస్తాయి.
“చాలా మందికి, ఆ ఒక్క సారాంశం వెంటనే ఉంది, ఇది ప్రాథమికంగా అన్నదమ్ముల భావాన్ని సృష్టిస్తుంది ఇది మరింత శోధించడాన్ని నిరుత్సాహపరుస్తుంది లేదా పూర్తి సారాంశాన్ని స్క్రోల్ చేసి, నిరాకరణ కనిపించే చోట ‘మరింత చూపించు’ క్లిక్ చేయండి.
“వాస్తవ ప్రపంచానికి హాని కలిగించగలదని నేను భావిస్తున్నాను ఏమిటంటే, AI స్థూలదృష్టి తరచుగా పాక్షికంగా సరైన మరియు పాక్షికంగా తప్పు సమాచారాన్ని కలిగి ఉంటుంది మరియు మీకు ఇప్పటికే విషయం తెలిసి ఉంటే తప్ప, ఖచ్చితమైనది లేదా కాదో చెప్పడం చాలా కష్టం అవుతుంది.”
Google ప్రతినిధి ఇలా అన్నారు: “AI ఓవర్వ్యూలు వ్యక్తులను వృత్తిపరమైన వైద్య సలహాలను పొందమని ప్రోత్సహించవని సూచించడం సరికాదు. స్పష్టమైన నిరాకరణతో పాటు, AI ఓవర్వ్యూలు సముచితమైనప్పుడు, స్థూలదృష్టిలోనే నేరుగా వైద్య సంరక్షణను కోరాలని తరచుగా పేర్కొంటాయి.”
టామ్ బిషప్, ఆంథోనీ నోలన్ అనే బ్లడ్ క్యాన్సర్ స్వచ్ఛంద సంస్థలో పేషెంట్ ఇన్ఫర్మేషన్ హెడ్, అత్యవసర చర్య కోసం పిలుపునిచ్చారు. “తప్పుడు సమాచారం నిజమైన సమస్య అని మాకు తెలుసు, కానీ ఆరోగ్యానికి సంబంధించిన తప్పుడు సమాచారం విషయానికి వస్తే, ఇది నిజంగా ప్రమాదకరమైనది” అని బిషప్ చెప్పారు.
“ఆ నిరాకరణ మరింత ప్రముఖంగా ఉండాలి, ప్రజలు వెనక్కి తగ్గేలా మరియు ఆలోచించేలా చేయడం కోసం… ‘ఇది నా వైద్య బృందంతో నేను చర్య తీసుకోకుండా చూడాల్సిన అవసరం ఉందా? నేను దీన్ని ముఖ విలువతో తీసుకోవచ్చా లేదా నేను దీన్ని మరింత వివరంగా పరిశీలించాలా మరియు ఈ సమాచారం నా స్వంత నిర్దిష్ట వైద్య పరిస్థితికి ఎలా సంబంధం కలిగి ఉందో చూడాలా?’ ఎందుకంటే అదే ఇక్కడ కీలకం.”
అతను ఇలా జోడించాడు: “నేను ఈ నిరాకరణ అగ్రస్థానంలో ఉండాలని కోరుకుంటున్నాను. మీరు చూసే మొదటి అంశం ఇదే కావాలని నేను కోరుకుంటున్నాను. మరియు ఆదర్శవంతంగా ఇది మీరు అక్కడ చూస్తున్న అన్నిటికీ అదే సైజు ఫాంట్గా ఉంటుంది, చిన్నది మరియు సులభంగా మిస్ అయ్యేది కాదు.”


