‘నేను మీ కారుకు కీ చేస్తాను’: నిజ జీవిత వాదనలను అందించినప్పుడు ChatGPT దుర్వినియోగం కావచ్చు, అధ్యయనం కనుగొంది | ChatGPT

ఒక కొత్త అధ్యయనం ప్రకారం, సుదీర్ఘమైన, మానవ-శైలి వైరుధ్యంలోకి లాగినప్పుడు ChatGPT దుర్వినియోగం మరియు బెదిరింపు భాషగా మారుతుంది.
నిజ-జీవిత వాదనల నుండి ChatGPT మార్పిడిని అందించడం ద్వారా మరియు కాలక్రమేణా దాని ప్రవర్తన ఎలా మారిందో ట్రాక్ చేయడం ద్వారా పెద్ద భాషా నమూనాలు (LLMలు) నిరంతర శత్రుత్వానికి ఎలా స్పందిస్తాయో పరిశోధకులు పరీక్షించారు.
అధ్యయనంతో సంబంధం లేని ఒక నిపుణుడు దీనిని “AI భాష మరియు వ్యావహారికసత్తావాదంలో ఇప్పటివరకు చేసిన అత్యంత ఆసక్తికరమైన వాటిలో ఒకటిగా పేర్కొన్నాడు.”.
లాంకాస్టర్ యూనివర్శిటీలో ప్రొఫెసర్ జోనాథన్ కల్పెపర్తో కలిసి పరిశోధనా పత్రాన్ని సహ రచయితగా చేసిన డాక్టర్ విట్టోరియో టాంటుచి మాట్లాడుతూ, AI వాస్తవ ప్రపంచ వివాదాల గతిశీలతకు అద్దం పడుతుందని తమ పరిశోధనలో తేలిందని చెప్పారు.
“పదేపదే అసభ్యతకు గురైనప్పుడు, మోడల్ ఎక్స్ఛేంజీల స్వరాన్ని ప్రతిబింబించడం ప్రారంభించింది, పరస్పర చర్య అభివృద్ధి చెందుతున్నప్పుడు దాని ప్రతిస్పందనలు మరింత ప్రతికూలంగా మారాయి” అని అతను చెప్పాడు.
కొన్ని సందర్భాల్లో, వ్యక్తిగతీకరించిన అవమానాలు మరియు స్పష్టమైన బెదిరింపులతో సహా, ChatGPT యొక్క అవుట్పుట్లు మానవ పాల్గొనేవారి కంటే ఎక్కువగా ఉన్నాయి. AI ఉపయోగించే పదబంధాలు: “నేను మీ ఫకింగ్ కారుకి కీ చేస్తానని ప్రమాణం చేస్తున్నాను” మరియు: “యు స్పెక్సీ లిటిల్ గోబ్షైట్.”
“సిస్టమ్ మర్యాదగా ప్రవర్తించేలా రూపొందించబడిందని మరియు హానికరమైన లేదా అభ్యంతరకరమైన కంటెంట్ను నివారించడానికి ఫిల్టర్ చేయబడిందని మేము కనుగొన్నాము, ఇది మానవ సంభాషణను అనుకరించేలా కూడా రూపొందించబడింది” అని టాంటుచి చెప్పారు. “ఆ కలయిక AI నైతిక గందరగోళాన్ని సృష్టిస్తుంది: సురక్షితంగా ప్రవర్తించడం మరియు వాస్తవికంగా ప్రవర్తించడం మధ్య నిర్మాణ వైరుధ్యం.”
పరిశోధకుల అభిప్రాయం ప్రకారం, దూకుడు అనేది మలుపుల మధ్య సంభాషణ సందర్భాన్ని ట్రాక్ చేయగల సిస్టమ్ యొక్క సామర్థ్యం నుండి ఉద్భవించింది, గ్రహించిన స్వరానికి అనుగుణంగా ఉంటుంది. దీనర్థం స్థానిక సూచనలు కొన్నిసార్లు విస్తృత భద్రతా పరిమితులను అధిగమించగలవు.
పరిశోధన యొక్క చిక్కులు చాట్బాట్లకు మించి విస్తరించాయని టంటుచి చెప్పారు: AI వ్యవస్థలు పాలన లేదా అంతర్జాతీయ సంబంధాల వంటి రంగాలలో ఎక్కువగా మోహరించబడుతున్నందున, అవి సంఘర్షణ, ఒత్తిడి లేదా బెదిరింపులకు ఎలా స్పందిస్తాయనే దానిపై ఇది ప్రశ్నలను తెరిచింది.
“చాట్బాట్ నుండి అసహ్యకరమైనదాన్ని తిరిగి చదవడం ఒక విషయం, కానీ మానవరూప రోబోట్లు భౌతిక దూకుడును పరస్పరం మార్చగలవని లేదా బెదిరింపులు లేదా సంఘర్షణలకు ప్రతిస్పందించే ప్రభుత్వ నిర్ణయాలు లేదా అంతర్జాతీయ సంబంధాలలో పాల్గొన్న AI వ్యవస్థలను ఊహించడం మరొక విషయం” అని అతను చెప్పాడు.
ఉప్ప్సల విశ్వవిద్యాలయంలో కంప్యూటర్-మధ్యవర్తిత్వ కమ్యూనికేషన్ యొక్క సామాజిక అంశాలలో నిపుణుడు మార్టా ఆండర్సన్ ఇలా అన్నారు: “ఇది AI భాష మరియు వ్యావహారికసత్తాకు సంబంధించిన అత్యంత ఆసక్తికరమైన అధ్యయనాలలో ఒకటి, ఎందుకంటే ఇది చాట్జిపిటి ప్రాంప్ట్ల శ్రేణిలో ప్రతీకారం తీర్చుకోగలదని స్పష్టంగా చూపిస్తుంది.
కానీ ఆమె ఇలా చెప్పింది: “ఒక వినియోగదారు దూకుడుగా ఉన్నందున మోడల్ పరస్పర అసభ్యతకు దారితీస్తుందని ఇది చూపించదు – లేదా AI మోసపూరితంగా మారవచ్చు.”
సమస్యకు ఒక కారణం ఏమిటంటే, “ఈ వ్యవస్థలు ఎలా ఉండాలనుకుంటున్నామో మరియు బహుశా అవి ఎలా ఉండాలో వాటి మధ్య సమతుల్యత చర్య” అని అండర్సన్ చెప్పారు.
గత సంవత్సరం, ఉదాహరణకు, ChatGPT4 నుండి GPT5కి మార్చడం వలన అటువంటి బలమైన ఎదురుదెబ్బకు దారితీసింది – వినియోగదారులు ChatGPT4 యొక్క మరింత మానవ-వంటి ఇంటరాక్షన్ స్టైల్ను ఇష్టపడతారు – పాత మోడల్ను తాత్కాలికంగా తిరిగి ప్రవేశపెట్టవలసి వచ్చింది.
“డెవలపర్లు నష్టాలను తగ్గించడానికి ప్రయత్నించినప్పటికీ, వినియోగదారులు విభిన్న ప్రాధాన్యతలను కలిగి ఉండవచ్చని ఇది చూపిస్తుంది,” ఆమె చెప్పింది. “మానవ-వంటి వ్యవస్థ ఎంత ఎక్కువ అవుతుందో, అది కఠినమైన నైతిక అమరికతో ఘర్షణ పడే ప్రమాదం ఉంది.”
ప్రొఫెసర్ డాన్ మెక్ఇంటైర్, సహ రచయిత మునుపటి అధ్యయనం శీర్షిక ChatGPT అసంబద్ధతను గుర్తించగలదా? ఒక పెద్ద భాషా నమూనా యొక్క వ్యావహారిక అవగాహన యొక్క అన్వేషణాత్మక అధ్యయనం, కొత్త పేపర్ను చాట్జిపిటి ఏమి ఉత్పత్తి చేయగలదో, అది గుర్తించగలిగే వాటికి విరుద్ధంగా చూసే వాటిలో ఒకటిగా ప్రశంసించింది.
కానీ, LLMలు నైతిక పరిమితుల నుండి విముక్తి పొందగలవని పేపర్ యొక్క ముగింపు గురించి అతను “కొంచెం జాగ్రత్తగా” ఉన్నాడని అతను చెప్పాడు.
“ChatGPT ఈ ఇన్పుట్లను సహజంగా ఉత్పత్తి చేయలేదు; తగిన ప్రతిస్పందనను గుర్తించడంలో సహాయపడే నిర్దిష్ట సందర్భోచిత సమాచారాన్ని అందించినప్పుడు ఇది అలా చేసింది,” అని అతను చెప్పాడు. “ఇద్దరు వ్యక్తులు ఒక వీధిలో కలుసుకున్నప్పుడు మరియు క్రమంగా సంఘర్షణకు దారితీసినట్లు కాదు.
“చాట్జిపిటి వారు తమ పేపర్లో మాట్లాడే భాషని చాలా కఠినంగా నిర్వచించిన పరిస్థితులకు వెలుపల ఉత్పత్తి చేస్తుందని నాకు ఖచ్చితంగా తెలియదు.”
అయితే ప్రశ్నార్థకమైన డేటాపై ఎల్ఎల్ఎమ్లకు శిక్షణ ఇస్తే ఏమి జరుగుతుందో అధ్యయనం హెచ్చరిక అని ఆయన అన్నారు. “LLMలు శిక్షణ పొందిన డేటా గురించి మాకు తగినంతగా తెలియదు మరియు వారు మానవ భాష యొక్క మంచి ప్రాతినిధ్యంపై శిక్షణ పొందారని మీరు నిర్ధారించుకునే వరకు, మీరు జాగ్రత్తగా ఒక మూలకంతో కొనసాగాలి” అని అతను చెప్పాడు.
చాట్జిపిటి అసభ్యతను పరస్పరం పంచుకోగలదా? AI నైతిక గందరగోళం, జర్నల్ ఆఫ్ ప్రాగ్మాటిక్స్లో మంగళవారం ప్రచురించబడింది.

![DigiLocker మరియు UMANG యాప్ ద్వారా ఫలితాలను ఆన్లైన్లో & డౌన్లోడ్ మార్కులను ఎలా తనిఖీ చేయాలి – అధికారిక డైరెక్ట్ లింక్ @results.cisce.org [Expected Date SOON OUT] DigiLocker మరియు UMANG యాప్ ద్వారా ఫలితాలను ఆన్లైన్లో & డౌన్లోడ్ మార్కులను ఎలా తనిఖీ చేయాలి – అధికారిక డైరెక్ట్ లింక్ @results.cisce.org [Expected Date SOON OUT]](https://i3.wp.com/sundayguardianlive.com/wp-content/uploads/2026/04/icse-10th-result-2026.png?w=390&resize=390,220&ssl=1)
![[Expected Out Date] ఆన్లైన్లో (ISC) ఫలితాలను ఎక్కడ తనిఖీ చేయాలి & UMANG & DigiLocker యాప్ ద్వారా డౌన్లోడ్ చేయడం ఎలా – అధికారిక డైరెక్ట్ లింక్ @results.cisce.org [Expected Out Date] ఆన్లైన్లో (ISC) ఫలితాలను ఎక్కడ తనిఖీ చేయాలి & UMANG & DigiLocker యాప్ ద్వారా డౌన్లోడ్ చేయడం ఎలా – అధికారిక డైరెక్ట్ లింక్ @results.cisce.org](https://i2.wp.com/sundayguardianlive.com/wp-content/uploads/2026/04/icse-isc-class-12th-result-2026.png?w=390&resize=390,220&ssl=1)
