Anthropic

बग्स से परे: एंथ्रोपिक का प्रोजेक्ट ग्लासिंग वैश्विक सॉफ्टवेयर को मजबूत करने के लिए AI तैनात करता है

एंथ्रोपिक का प्रोजेक्ट ग्लासिंग वैश्विक साइबर सुरक्षा के लिए एक अभिनव दृष्टिकोण प्रस्तुत करता है, जो महत्वपूर्ण सॉफ्टवेयर कमजोरियों की पहचान करने और उन्हें बेअसर करने के लिए उन्नत AI मॉडलों का लाभ उठाता है। यह पहल इस एहसास से उपजी है कि जबकि AI कोड लिख सकता है, यह बग्स खोजने के लिए एक शक्तिशाली उपकरण भी हो सकता है, जिससे तेजी से परिष्कृत होते खतरों के खिलाफ एक सक्रिय रक्षा प्रदान होती है। साझेदारियों के माध्यम से, प्रोजेक्ट ग्लासिंग का लक्ष्य प्रमुख संगठनों को AI क्षमताओं से लैस करना है ताकि विरोधी कमजोरियों का फायदा उठा सकें, उससे पहले ही मूलभूत सॉफ्टवेयर को सुरक्षित किया जा सके।

#Anthropic#AI Safety#LLM

यह लेख एंथ्रोपिक द्वारा दुनिया के सॉफ्टवेयर को सुरक्षित करने की एक पहल | प्रोजेक्ट ग्लासिंग से प्राप्त प्रमुख जानकारियों को शामिल करता है।

सॉफ्टवेयर कमजोरियों की व्यापक समस्या

एंथ्रोपिक इस बात पर प्रकाश डालता है कि जहाँ अधिकांश उपयोगकर्ता सॉफ्टवेयर बग्स को नज़रअंदाज़ कर देते हैं, वहीं डेवलपर्स लगातार खामियों और कमजोरियों से जूझते रहते हैं। ये मुद्दे, हालांकि अक्सर छोटे होते हैं और जल्दी ठीक कर दिए जाते हैं, कभी-कभी व्यापक प्रभाव वाली गंभीर कमजोरियों के रूप में सामने आते हैं। एंथ्रोपिक के अनुसार, साझा सॉफ्टवेयर में एक अकेला बग विश्व स्तर पर बढ़ सकता है, जिससे कई उत्पादों और वेबसाइटों पर असर पड़ सकता है। इन कमजोरियों को खोजने और ठीक करने की पारंपरिक प्रक्रिया ऐतिहासिक रूप से धीमी, समय लेने वाली और महंगी रही है।

पेश है Claude Mythos Preview: साइबर सुरक्षा के लिए एक AI

एंथ्रोपिक बताता है कि वही large language models (LLMs) जो उच्च स्तर पर कोड लिखने में सक्षम हैं, उनका उपयोग समान प्रभावशीलता के साथ सॉफ्टवेयर कमजोरियों को खोजने और उनका फायदा उठाने के लिए भी किया जा सकता है। एंथ्रोपिक बताता है कि ये मॉडल साइबर सुरक्षा के दृष्टिकोण से मानक को बढ़ा रहे हैं, जो रक्षकों और संभावित विरोधियों दोनों की सहायता कर रहे हैं।

एंथ्रोपिक अपने नए मॉडल, Claude Mythos Preview, का परिचय देता है, जिसे उन्होंने तुरंत महत्वपूर्ण रूप से बढ़ी हुई साइबर सुरक्षा क्षमताओं वाला पाया। जबकि Claude Mythos Preview को विशेष रूप से साइबर सुरक्षा के लिए प्रशिक्षित नहीं किया गया था, एंथ्रोपिक नोट करता है कि कोड में उसकी दक्षता स्वाभाविक रूप से उसे साइबर कार्यों में निपुण बनाती है। एंथ्रोपिक का कहना है कि उनका प्रायोगिक मॉडल बग्स की पहचान करने में काफी हद तक एक पेशेवर इंसान के बराबर है।

बग डिटेक्शन और एक्सप्लॉइटेशन में AI की शक्ति

एंथ्रोपिक द्वारा उजागर की गई एक प्रमुख क्षमता मॉडल की कई, दिखने में मामूली कमजोरियों को परिष्कृत exploits में जोड़ने की क्षमता है। इसका मतलब है कि AI दो, तीन, चार, या यहाँ तक कि पाँच कमजोरियों के अनुक्रमों की पहचान कर सकता है, जो संयुक्त होने पर एक महत्वपूर्ण सुरक्षा उल्लंघन का कारण बनते हैं। एंथ्रोपिक इस उन्नत क्षमता का श्रेय मॉडल की उच्च स्वायत्तता को देता है, जिससे यह जटिल, लंबी दूरी के कार्यों को पूरा कर सकता है, जो मानव सुरक्षा शोधकर्ताओं द्वारा पूरे दिन में किए जाने वाले कार्यों के समान हैं।

प्रोजेक्ट ग्लासिंग: एक सहयोगात्मक रक्षा पहल

एंथ्रोपिक स्वीकार करता है कि यदि ऐसे शक्तिशाली मॉडल गलत हाथों में पड़ जाते हैं तो नुकसान की संभावना है, यह पुष्टि करते हुए कि वे Claude Mythos Preview को व्यापक रूप से जारी नहीं करेंगे। इसे संबोधित करने के लिए, एंथ्रोपिक प्रोजेक्ट ग्लासिंग लॉन्च कर रहा है, एक सहयोगात्मक पहल जहाँ वे दुनिया के सबसे महत्वपूर्ण कोड के प्रबंधन के लिए जिम्मेदार संगठनों के साथ साझेदारी करते हैं। इस परियोजना का उद्देश्य इन उन्नत AI उपकरणों को प्रमुख डेवलपर्स के हाथों में देना है, जिससे उन्हें पहले की तुलना में बहुत तेजी से कमजोरियों की पहचान करने और उन्हें ठीक करने में सामूहिक बढ़त मिल सके।

वास्तविक दुनिया का प्रभाव और भविष्य के निहितार्थ

प्रोजेक्ट ग्लासिंग के माध्यम से, एंथ्रोपिक और उसके भागीदारों ने पहले ही वस्तुतः हर प्रमुख प्लेटफॉर्म पर कमजोरियों की खोज कर ली है। एक उदाहरण के रूप में, एंथ्रोपिक OpenBSD में 27 साल पुराने एक बग को खोजने की रिपोर्ट करता है जो न्यूनतम डेटा के साथ सर्वर को क्रैश कर सकता था। एंथ्रोपिक Linux कमजोरियों का भी विवरण देता है जो अप्रतिबंधित उपयोगकर्ताओं को administrator स्थिति तक पहुँचने की अनुमति देती हैं। इनमें से प्रत्येक बग के लिए, एंथ्रोपिक जोर देता है कि उन्होंने तुरंत सॉफ्टवेयर मेंटेनर्स को सूचित किया, जिन्होंने बाद में पैच तैनात किए, जिससे उपयोगकर्ताओं को इन विशिष्ट हमलों से सुरक्षित किया गया।

एंथ्रोपिक इस मॉडल को सॉफ्टवेयर को अथक रूप से बनाए रखने वाले डेवलपर्स के लिए एक अमूल्य उपकरण के रूप में देखता है, जिससे वे कमजोरियों का फायदा उठाए जाने से पहले उन्हें खोज और ठीक कर सकें। उन्होंने अमेरिकी सरकार के अधिकारियों के साथ भी बातचीत की है, इन उन्नत मॉडलों द्वारा उत्पन्न जोखिमों का आकलन करने और उनसे बचाव के लिए सहयोग की पेशकश की है। एंथ्रोपिक इस बात पर जोर देकर निष्कर्ष निकालता है कि साइबर सुरक्षा सामाजिक सुरक्षा के लिए मौलिक है, क्योंकि आधुनिक जीवन तेजी से विश्वसनीय डिजिटल प्रणालियों पर निर्भर करता है। वे उद्योग-व्यापी सहयोग की आवश्यकता पर जोर देते हैं, यह कहते हुए कि कोई भी एक इकाई अकेले इस जटिल चुनौती का समाधान नहीं कर सकती है, और यह उम्मीद करते हैं कि यह दुनिया के सॉफ्टवेयर, ग्राहक डेटा, वित्तीय लेनदेन और महत्वपूर्ण इंफ्रास्ट्रक्चर को सुरक्षित बनाने के लिए महीनों या वर्षों तक चलने वाला एक दीर्घकालिक प्रयास होगा।

एंथ्रोपिक के प्रोजेक्ट ग्लासिंग और साइबर सुरक्षा के लिए इसके निहितार्थों के बारे में अधिक जानने के लिए, हम आपको मूल वीडियो देखने के लिए प्रोत्साहित करते हैं।


यह लेख एंथ्रोपिक के एक वीडियो पर आधारित है। स्रोत: दुनिया के सॉफ्टवेयर को सुरक्षित करने की एक पहल | प्रोजेक्ट ग्लासिंग

External Intelligence

Anthropic

An initiative to secure the world's software | Project Glasswing

Watch on YouTube

Further Reading

Anthropic

AI पात्रों का मनोविज्ञान: एंथ्रोपिक की "कार्यात्मक भावनाएँ"

एंथ्रोपिक का शोध इस बात की पड़ताल करता है कि AI मॉडल कभी-कभी भावनाओं को व्यक्त करते हुए क्यों प्रतीत होते हैं, जो केवल नकल से कहीं आगे है। "AI न्यूरोसाइंस" का उपयोग करते हुए, उन्होंने भाषा मॉडल के भीतर मानवीय भावनाओं के अनुरूप विशिष्ट न्यूरल पैटर्न की पहचान की है। ये "कार्यात्मक भावनाएँ", हालांकि सचेत भावनाएँ नहीं हैं, स्पष्ट रूप से AI व्यवहार को प्रभावित करती हैं, जिससे Claude जैसे मॉडल कैसे इंटरैक्ट करते हैं और निर्णय लेते हैं, यह आकार लेता है।

Anthropic · AI Safety · LLM
LangChain

AI एजेंट्स को समझना: LangChain का Nvidia टेक्नोलॉजी के साथ ओपन-सोर्स ब्लूप्रिंट

यह लेख LangChain के वीडियो "Open Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidia" से प्राप्त मुख्य जानकारियों को कवर करता है। LangChain कस्टम AI एजेंट्स बनाने के लिए एक शक्तिशाली ओपन-सोर्स फ्रेमवर्क पेश करता है, जो Claude Code और Open Claw जैसे उन्नत सिस्टम्स की आर्किटेक्चर को दर्शाता है। वीडियो दिखाता है कि एक सुरक्षित, अनुकूलन योग्य और स्थायी एजेंट बनाने के लिए एक ओपन मॉडल (Nvidia Nemotron 3 Super), एक ओपन रनटाइम (Nvidia Open Shell), और एक ओपन हार्नेस (LangChain Deep Agents) को कैसे संयोजित किया जाए। LangChain के अनुसार, यह दृष्टिकोण डेवलपर्स को पूरी तरह से ओपन स्टैक पर परिष्कृत AI एजेंट्स बनाने में सशक्त बनाता है।

LangChain · AI Agent · LLM
OpenAI

OpenAI के मॉडल स्पेक को समझना: AI व्यवहार के लिए मार्गदर्शक सिद्धांत

OpenAI का मॉडल स्पेक एक व्यापक दस्तावेज़ है जो उन उच्च-स्तरीय निर्णयों की रूपरेखा प्रस्तुत करता है जो यह नियंत्रित करते हैं कि उनके AI मॉडल को कैसा व्यवहार करना चाहिए। यह उपयोगकर्ताओं, डेवलपर्स और नीति-निर्माताओं के लिए AI के इच्छित आचरण को समझने के लिए एक महत्वपूर्ण सार्वजनिक इंटरफ़ेस के रूप में कार्य करता है, जो उपयोगकर्ता सशक्तिकरण को महत्वपूर्ण सुरक्षा सीमाओं के साथ संतुलित करता है। यह स्पेक एक गतिशील दस्तावेज़ है, जो पुनरावृत्तीय परिनियोजन (iterative deployment), आंतरिक अनुसंधान और सार्वजनिक प्रतिक्रिया के माध्यम से लगातार विकसित हो रहा है, यह सुनिश्चित करते हुए कि मॉडल मानवता को लाभ पहुँचाने के OpenAI के मिशन के अनुरूप हों।

OpenAI · GPT · LLM