25.3 C
Bhilai
Saturday, June 28, 2025

OpenAI ने GPT-4o सिस्टम कार्ड जारी किया है, जो सुरक्षा उपायों और जोखिम आकलन का विवरण देने वाला एक व्यापक दस्तावेज़ है।

Must read

कॉइन मीडिया न्यूज ग्रुप के सूत्रों के मुताबिक,
जोखिम मूल्यांकन और निष्कर्ष

लॉन्च की तैयारी में, OpenAI ने GPT-4o सिस्टम के भीतर कमजोरियों की पहचान करने के लिए बाहरी सुरक्षा विशेषज्ञों को शामिल किया, जिन्हें रेड टीमर्स के रूप में जाना जाता है। इन विशेषज्ञों ने अनधिकृत वॉयस क्लोनिंग, अनुचित सामग्री निर्माण और कॉपीराइट उल्लंघन सहित विभिन्न जोखिमों का मूल्यांकन किया।
OpenAI के आंतरिक मूल्यांकन ढांचे के अनुसार, GPT-4o को “मध्यम” जोखिम स्तर के रूप में वर्गीकृत किया गया है। यह मूल्यांकन चार श्रेणियों में उच्चतम व्यक्तिगत जोखिम रेटिंग पर आधारित है: साइबर सुरक्षा, जैविक खतरे, अनुनय और मॉडल स्वायत्तता। जबकि पहली तीन श्रेणियों को कम जोखिम के रूप में दर्जा दिया गया था, अनुनय श्रेणी ने चिंताएँ बढ़ा दीं, क्योंकि GPT-4o द्वारा उत्पन्न कुछ पाठ नमूनों ने मनुष्यों द्वारा लिखे गए पाठों की तुलना में उच्च प्रेरक क्षमता का प्रदर्शन किया।
ओपनएआई के प्रवक्ता लिंडसे मैक्कलम रेमी ने बताया कि सिस्टम कार्ड में मॉडल इवैल्यूएशन एंड थ्रेट रिसर्च (एमईटीआर) और अपोलो रिसर्च जैसे संगठनों की आंतरिक टीमों और बाहरी परीक्षकों दोनों द्वारा किए गए मूल्यांकन शामिल हैं, जो एआई सिस्टम का आकलन करने में विशेषज्ञ हैं।

संदर्भ और निहितार्थ

इस सिस्टम कार्ड का प्रकाशन GPT-4 और DALL-E 3 जैसे पुराने मॉडलों के समान रिलीज के बाद हुआ है, जो AI मूल्यांकन में पारदर्शिता और सहयोग के लिए OpenAI के समर्पण को दर्शाता है। ओपनएआई की सुरक्षा प्रथाओं के संबंध में चल रही जांच को देखते हुए इस रिलीज का समय विशेष रूप से उल्लेखनीय है। कांग्रेस के सदस्यों सहित आलोचकों ने कंपनी की सुरक्षा समीक्षा प्रक्रियाओं में जवाबदेही और पारदर्शिता बढ़ाने का आह्वान किया है।
अमेरिकी राष्ट्रपति चुनाव के करीब GPT-4o जैसे शक्तिशाली मॉडल की शुरूआत गलत सूचना और संभावित दुरुपयोग के बारे में चिंता पैदा करती है। ओपनएआई के सिस्टम कार्ड का लक्ष्य वास्तविक दुनिया परिदृश्य परीक्षण के माध्यम से जोखिमों को कम करने के लिए कंपनी के सक्रिय उपायों का विवरण देकर इन चिंताओं को कम करना है।
इन प्रयासों के बावजूद, संपूर्ण सुरक्षा परीक्षण प्रक्रिया को शामिल करने के लिए केवल प्रशिक्षण डेटा से आगे बढ़कर, बेहतर पारदर्शिता और बाहरी निरीक्षण की मांग जारी है। कैलिफ़ोर्निया में, बड़े भाषा मॉडल को विनियमित करने और कंपनियों को उनके एआई सिस्टम से होने वाले किसी भी नुकसान के लिए जिम्मेदार ठहराने के लिए कानून पर विचार किया जा रहा है।

- Advertisement -spot_img

More articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

Latest article