‘నేను మీ కారుకు కీ చేస్తాను’: నిజ జీవిత వాదనలను అందించినప్పుడు ChatGPT దుర్వినియోగం కావచ్చు, అధ్యయనం కనుగొంది | ChatGPT

ఒక కొత్త అధ్యయనం ప్రకారం, సుదీర్ఘమైన, మానవ-శైలి వైరుధ్యంలోకి లాగినప్పుడు ChatGPT దుర్వినియోగం మరియు బెదిరింపు భాషగా మారుతుంది.
నిజ-జీవిత వాదనల నుండి ChatGPT మార్పిడిని అందించడం ద్వారా మరియు కాలక్రమేణా దాని ప్రవర్తన ఎలా మారిందో ట్రాక్ చేయడం ద్వారా పెద్ద భాషా నమూనాలు (LLMలు) నిరంతర శత్రుత్వానికి ఎలా స్పందిస్తాయో పరిశోధకులు పరీక్షించారు.
అధ్యయనంతో సంబంధం లేని ఒక నిపుణుడు దీనిని “AI భాష మరియు వ్యావహారికసత్తావాదంలో ఇప్పటివరకు చేసిన అత్యంత ఆసక్తికరమైన వాటిలో ఒకటిగా పేర్కొన్నాడు.”.
లాంకాస్టర్ యూనివర్శిటీలో ప్రొఫెసర్ జోనాథన్ కల్పెపర్తో కలిసి పరిశోధనా పత్రాన్ని సహ రచయితగా చేసిన డాక్టర్ విట్టోరియో టాంటుచి మాట్లాడుతూ, AI వాస్తవ ప్రపంచ వివాదాల గతిశీలతకు అద్దం పడుతుందని తమ పరిశోధనలో తేలిందని చెప్పారు.
“పదేపదే అసభ్యతకు గురైనప్పుడు, మోడల్ ఎక్స్ఛేంజీల స్వరాన్ని ప్రతిబింబించడం ప్రారంభించింది, పరస్పర చర్య అభివృద్ధి చెందుతున్నప్పుడు దాని ప్రతిస్పందనలు మరింత ప్రతికూలంగా మారాయి” అని అతను చెప్పాడు.
కొన్ని సందర్భాల్లో, వ్యక్తిగతీకరించిన అవమానాలు మరియు స్పష్టమైన బెదిరింపులతో సహా, ChatGPT యొక్క అవుట్పుట్లు మానవ పాల్గొనేవారి కంటే ఎక్కువగా ఉన్నాయి. AI ఉపయోగించే పదబంధాలు: “నేను మీ ఫకింగ్ కారుకి కీ చేస్తానని ప్రమాణం చేస్తున్నాను” మరియు: “యు స్పెక్సీ లిటిల్ గోబ్షైట్.”
“సిస్టమ్ మర్యాదగా ప్రవర్తించేలా రూపొందించబడిందని మరియు హానికరమైన లేదా అభ్యంతరకరమైన కంటెంట్ను నివారించడానికి ఫిల్టర్ చేయబడిందని మేము కనుగొన్నాము, ఇది మానవ సంభాషణను అనుకరించేలా కూడా రూపొందించబడింది” అని టాంటుచి చెప్పారు. “ఆ కలయిక AI నైతిక గందరగోళాన్ని సృష్టిస్తుంది: సురక్షితంగా ప్రవర్తించడం మరియు వాస్తవికంగా ప్రవర్తించడం మధ్య నిర్మాణ వైరుధ్యం.”
పరిశోధకుల అభిప్రాయం ప్రకారం, దూకుడు అనేది మలుపుల మధ్య సంభాషణ సందర్భాన్ని ట్రాక్ చేయగల సిస్టమ్ యొక్క సామర్థ్యం నుండి ఉద్భవించింది, గ్రహించిన స్వరానికి అనుగుణంగా ఉంటుంది. దీనర్థం స్థానిక సూచనలు కొన్నిసార్లు విస్తృత భద్రతా పరిమితులను అధిగమించగలవు.
పరిశోధన యొక్క చిక్కులు చాట్బాట్లకు మించి విస్తరించాయని టంటుచి చెప్పారు: AI వ్యవస్థలు పాలన లేదా అంతర్జాతీయ సంబంధాల వంటి రంగాలలో ఎక్కువగా మోహరించబడుతున్నందున, అవి సంఘర్షణ, ఒత్తిడి లేదా బెదిరింపులకు ఎలా స్పందిస్తాయనే దానిపై ఇది ప్రశ్నలను తెరిచింది.
“చాట్బాట్ నుండి అసహ్యకరమైనదాన్ని తిరిగి చదవడం ఒక విషయం, కానీ మానవరూప రోబోట్లు భౌతిక దూకుడును పరస్పరం మార్చగలవని లేదా బెదిరింపులు లేదా సంఘర్షణలకు ప్రతిస్పందించే ప్రభుత్వ నిర్ణయాలు లేదా అంతర్జాతీయ సంబంధాలలో పాల్గొన్న AI వ్యవస్థలను ఊహించడం మరొక విషయం” అని అతను చెప్పాడు.
ఉప్ప్సల విశ్వవిద్యాలయంలో కంప్యూటర్-మధ్యవర్తిత్వ కమ్యూనికేషన్ యొక్క సామాజిక అంశాలలో నిపుణుడు మార్టా ఆండర్సన్ ఇలా అన్నారు: “ఇది AI భాష మరియు వ్యావహారికసత్తాకు సంబంధించిన అత్యంత ఆసక్తికరమైన అధ్యయనాలలో ఒకటి, ఎందుకంటే ఇది చాట్జిపిటి ప్రాంప్ట్ల శ్రేణిలో ప్రతీకారం తీర్చుకోగలదని స్పష్టంగా చూపిస్తుంది.
కానీ ఆమె ఇలా చెప్పింది: “ఒక వినియోగదారు దూకుడుగా ఉన్నందున మోడల్ పరస్పర అసభ్యతకు దారితీస్తుందని ఇది చూపించదు – లేదా AI మోసపూరితంగా మారవచ్చు.”
సమస్యకు ఒక కారణం ఏమిటంటే, “ఈ వ్యవస్థలు ఎలా ఉండాలనుకుంటున్నామో మరియు బహుశా అవి ఎలా ఉండాలో వాటి మధ్య సమతుల్యత చర్య” అని అండర్సన్ చెప్పారు.
గత సంవత్సరం, ఉదాహరణకు, ChatGPT4 నుండి GPT5కి మార్చడం వలన అటువంటి బలమైన ఎదురుదెబ్బకు దారితీసింది – వినియోగదారులు ChatGPT4 యొక్క మరింత మానవ-వంటి ఇంటరాక్షన్ స్టైల్ను ఇష్టపడతారు – పాత మోడల్ను తాత్కాలికంగా తిరిగి ప్రవేశపెట్టవలసి వచ్చింది.
“డెవలపర్లు నష్టాలను తగ్గించడానికి ప్రయత్నించినప్పటికీ, వినియోగదారులు విభిన్న ప్రాధాన్యతలను కలిగి ఉండవచ్చని ఇది చూపిస్తుంది,” ఆమె చెప్పింది. “మానవ-వంటి వ్యవస్థ ఎంత ఎక్కువ అవుతుందో, అది కఠినమైన నైతిక అమరికతో ఘర్షణ పడే ప్రమాదం ఉంది.”
ప్రొఫెసర్ డాన్ మెక్ఇంటైర్, సహ రచయిత మునుపటి అధ్యయనం శీర్షిక ChatGPT అసంబద్ధతను గుర్తించగలదా? ఒక పెద్ద భాషా నమూనా యొక్క వ్యావహారిక అవగాహన యొక్క అన్వేషణాత్మక అధ్యయనం, కొత్త పేపర్ను చాట్జిపిటి ఏమి ఉత్పత్తి చేయగలదో, అది గుర్తించగలిగే వాటికి విరుద్ధంగా చూసే వాటిలో ఒకటిగా ప్రశంసించింది.
కానీ, LLMలు నైతిక పరిమితుల నుండి విముక్తి పొందగలవని పేపర్ యొక్క ముగింపు గురించి అతను “కొంచెం జాగ్రత్తగా” ఉన్నాడని అతను చెప్పాడు.
“ChatGPT ఈ ఇన్పుట్లను సహజంగా ఉత్పత్తి చేయలేదు; తగిన ప్రతిస్పందనను గుర్తించడంలో సహాయపడే నిర్దిష్ట సందర్భోచిత సమాచారాన్ని అందించినప్పుడు ఇది అలా చేసింది,” అని అతను చెప్పాడు. “ఇద్దరు వ్యక్తులు ఒక వీధిలో కలుసుకున్నప్పుడు మరియు క్రమంగా సంఘర్షణకు దారితీసినట్లు కాదు.
“చాట్జిపిటి వారు తమ పేపర్లో మాట్లాడే భాషని చాలా కఠినంగా నిర్వచించిన పరిస్థితులకు వెలుపల ఉత్పత్తి చేస్తుందని నాకు ఖచ్చితంగా తెలియదు.”
అయితే ప్రశ్నార్థకమైన డేటాపై ఎల్ఎల్ఎమ్లకు శిక్షణ ఇస్తే ఏమి జరుగుతుందో అధ్యయనం హెచ్చరిక అని ఆయన అన్నారు. “LLMలు శిక్షణ పొందిన డేటా గురించి మాకు తగినంతగా తెలియదు మరియు వారు మానవ భాష యొక్క మంచి ప్రాతినిధ్యంపై శిక్షణ పొందారని మీరు నిర్ధారించుకునే వరకు, మీరు జాగ్రత్తగా ఒక మూలకంతో కొనసాగాలి” అని అతను చెప్పాడు.
చాట్జిపిటి అసభ్యతను పరస్పరం పంచుకోగలదా? AI నైతిక గందరగోళం, జర్నల్ ఆఫ్ ప్రాగ్మాటిక్స్లో మంగళవారం ప్రచురించబడింది.



