News

AI సంస్థలు మానవ-స్థాయి వ్యవస్థలను నిర్మించే ప్రమాదాల కోసం ‘సిద్ధపడలేదు’, నివేదిక హెచ్చరిస్తుంది | కృత్రిమ ఇంటెలిజెన్స్ (AI)


మానవ-స్థాయి మేధో పనితీరుతో వ్యవస్థలను సృష్టించే పరిణామాలకు కృత్రిమ మేధస్సు కంపెనీలు “ప్రాథమికంగా సిద్ధపడవు” AI భద్రతకు నాయకత్వం వహించారు సమూహం.

ఫ్యూచర్ ఆఫ్ లైఫ్ ఇన్స్టిట్యూట్ (FLI) దానిలో ఏదీ చెప్పలేదు AI భద్రతా సూచిక “అస్తిత్వ భద్రతా ప్రణాళిక” కోసం D కంటే ఎక్కువ స్కోర్ చేసింది.

FLI యొక్క నివేదిక యొక్క ఐదుగురు సమీక్షకులలో ఒకరు, ఆర్టిఫిషియల్ జనరల్ ఇంటెలిజెన్స్ (AGI) ను అభివృద్ధి చేయాలనే లక్ష్యంతో ఉన్నప్పటికీ, పరిశీలించిన కంపెనీలలో ఏదీ వ్యవస్థలు సురక్షితంగా మరియు నియంత్రించదగినవిగా ఉండేలా “ఒక పొందికైన, కార్యాచరణ ప్రణాళిక వంటివి” లేవు.

AGI AI అభివృద్ధి యొక్క సైద్ధాంతిక దశను సూచిస్తుంది, ఈ వ్యవస్థ ఏదైనా మేధోపరమైన పనిని నిర్వహించడంలో మానవునితో సరిపోయే సామర్థ్యం కలిగి ఉంటుంది. Chatgpt యొక్క డెవలపర్ అయిన ఓపెనై, AGI “మానవాళికి ప్రయోజనం చేకూర్చడం” అని నిర్ధారించడమే తన లక్ష్యం అని అన్నారు. మానవ నియంత్రణను తప్పించుకోవడం ద్వారా AGI అస్తిత్వ ముప్పును కలిగిస్తుందని భద్రతా ప్రచారకులు హెచ్చరించారు విపత్తు సంఘటనను ప్రేరేపిస్తుంది.

FLI యొక్క నివేదిక ఇలా చెప్పింది: “పరిశ్రమ దాని స్వంత లక్ష్యాల కోసం ప్రాథమికంగా సిద్ధం కాదు. కంపెనీలు తాము దశాబ్దంలోనే ఆర్టిఫిషియల్ జనరల్ ఇంటెలిజెన్స్ (ఎజిఐ) సాధిస్తాయని పేర్కొన్నాయి, అయినప్పటికీ అస్తిత్వ భద్రతా ప్రణాళికలో ఎవరూ డి పైన స్కోర్ చేయలేదు. ”

ఇండెక్స్ ఏడుగురు AI డెవలపర్‌లను – గూగుల్ డీప్‌మైండ్, ఓపెనై, ఆంత్రోపిక్, మెటా, XAI మరియు చైనా యొక్క జిపా AI మరియు డీప్సీక్ – “ప్రస్తుత హాని” మరియు “అస్తిత్వ భద్రత” తో సహా ఆరు ప్రాంతాలలో అంచనా వేస్తుంది.

ఆంత్రోపిక్ సి+తో అత్యధిక మొత్తం భద్రతా స్కోరును అందుకుంది, తరువాత ఓపెనాయ్ సి మరియు గూగుల్ డీప్‌మైండ్ సి-సి- తో అందుకుంది.

FLI అనేది అమెరికా ఆధారిత లాభాపేక్షలేనిది, ఇది అత్యాధునిక సాంకేతిక పరిజ్ఞానాన్ని సురక్షితంగా ఉపయోగించుకోవటానికి ప్రచారం చేస్తుంది మరియు క్రిప్టో వ్యవస్థాపకుడి నుండి “బేషరతు” విరాళం కారణంగా స్వతంత్రంగా పనిచేయగలదు విటాలిక్ బుటెరిన్.

సేఫాయ్, మరొక భద్రత-కేంద్రీకృత లాభాపేక్షలేని, గురువారం ఒక నివేదికను కూడా విడుదల చేసింది అధునాతన AI కంపెనీలు “చాలా బలహీనమైన రిస్క్ మేనేజ్‌మెంట్ పద్ధతులను” కలిగి ఉన్నాయని మరియు వారి ప్రస్తుత విధానాన్ని “ఆమోదయోగ్యం కాని” అని లేబుల్ చేశాయని హెచ్చరిస్తున్నారు.

FLI భద్రతా తరగతులను బ్రిటిష్ కంప్యూటర్ శాస్త్రవేత్త స్టువర్ట్ రస్సెల్ సహా AI నిపుణుల బృందం కేటాయించింది మరియు సమీక్షించింది మరియు AI రెగ్యులేషన్ క్యాంపెయిన్ గ్రూప్ ఎన్కోడ్ జస్టిస్ వ్యవస్థాపకుడు SNEHA RIVANUR.

FLI యొక్క సహ వ్యవస్థాపకుడు మరియు మసాచుసెట్స్ ఇన్స్టిట్యూట్ ఆఫ్ టెక్నాలజీలో ప్రొఫెసర్ అయిన మాక్స్ టెగ్మార్క్ మాట్లాడుతూ, పరిణామాలను ఎదుర్కోవటానికి ప్రణాళికలను ప్రచురించకుండా అత్యాధునిక AI సంస్థలు సూపర్-ఇంటెలిజెంట్ వ్యవస్థలను నిర్మించడమే లక్ష్యంగా పెట్టుకున్నాయి.

అతను ఇలా అన్నాడు: “ఇది న్యూయార్క్ నగరంలో ఎవరైనా బ్రహ్మాండమైన అణు విద్యుత్ ప్లాంట్‌ను నిర్మిస్తున్నట్లుగా ఉంది మరియు ఇది వచ్చే వారం తెరవబోతోంది – కాని అది కరిగిపోకుండా నిరోధించడానికి ప్రణాళిక లేదు.”

టెగ్మార్క్ సాంకేతిక పరిజ్ఞానం కొనసాగుతోందని చెప్పారు అంచనాలను అవుట్‌పేస్AGI యొక్క సవాళ్లను పరిష్కరించడానికి నిపుణులు దశాబ్దాలుగా ఉంటారనే గతంలో ఉన్న నమ్మకాన్ని ఉటంకిస్తూ. “ఇప్పుడు కంపెనీలు కొన్ని సంవత్సరాల దూరంలో ఉన్నాయని చెబుతున్నాయి,” అని అతను చెప్పాడు.

AI సామర్థ్యాలలో పురోగతి “గొప్పది” అని ఆయన అన్నారు ఫిబ్రవరిలో పారిస్‌లో గ్లోబల్ AI సమ్మిట్.

గూగుల్ డీప్‌మైండ్ ప్రతినిధి మాట్లాడుతూ, నివేదికలు “గూగుల్ డీప్‌మైండ్ యొక్క అన్ని భద్రతా ప్రయత్నాలు” పరిగణనలోకి తీసుకోలేదు. వారు జోడించారు: “AI భద్రత మరియు భద్రతకు మా సమగ్ర విధానం స్వాధీనం చేసుకున్నదానికంటే మించి విస్తరించింది.”

వ్యాఖ్య కోసం ఓపెనాయ్, ఆంత్రాపిక్, మెటా, క్సాయ్, జిపా ఐ మరియు డీప్సీక్ కూడా సంప్రదించబడ్డాయి.



Source link

Related Articles

స్పందించండి

మీ ఈమెయిలు చిరునామా ప్రచురించబడదు. తప్పనిసరి ఖాళీలు *‌తో గుర్తించబడ్డాయి

Back to top button