कॉइन मीडिया न्यूज ग्रुप के सूत्रों के मुताबिक,
जोखिम मूल्यांकन और निष्कर्ष
लॉन्च की तैयारी में, OpenAI ने GPT-4o सिस्टम के भीतर कमजोरियों की पहचान करने के लिए बाहरी सुरक्षा विशेषज्ञों को शामिल किया, जिन्हें रेड टीमर्स के रूप में जाना जाता है। इन विशेषज्ञों ने अनधिकृत वॉयस क्लोनिंग, अनुचित सामग्री निर्माण और कॉपीराइट उल्लंघन सहित विभिन्न जोखिमों का मूल्यांकन किया।
OpenAI के आंतरिक मूल्यांकन ढांचे के अनुसार, GPT-4o को “मध्यम” जोखिम स्तर के रूप में वर्गीकृत किया गया है। यह मूल्यांकन चार श्रेणियों में उच्चतम व्यक्तिगत जोखिम रेटिंग पर आधारित है: साइबर सुरक्षा, जैविक खतरे, अनुनय और मॉडल स्वायत्तता। जबकि पहली तीन श्रेणियों को कम जोखिम के रूप में दर्जा दिया गया था, अनुनय श्रेणी ने चिंताएँ बढ़ा दीं, क्योंकि GPT-4o द्वारा उत्पन्न कुछ पाठ नमूनों ने मनुष्यों द्वारा लिखे गए पाठों की तुलना में उच्च प्रेरक क्षमता का प्रदर्शन किया।
ओपनएआई के प्रवक्ता लिंडसे मैक्कलम रेमी ने बताया कि सिस्टम कार्ड में मॉडल इवैल्यूएशन एंड थ्रेट रिसर्च (एमईटीआर) और अपोलो रिसर्च जैसे संगठनों की आंतरिक टीमों और बाहरी परीक्षकों दोनों द्वारा किए गए मूल्यांकन शामिल हैं, जो एआई सिस्टम का आकलन करने में विशेषज्ञ हैं।
संदर्भ और निहितार्थ
इस सिस्टम कार्ड का प्रकाशन GPT-4 और DALL-E 3 जैसे पुराने मॉडलों के समान रिलीज के बाद हुआ है, जो AI मूल्यांकन में पारदर्शिता और सहयोग के लिए OpenAI के समर्पण को दर्शाता है। ओपनएआई की सुरक्षा प्रथाओं के संबंध में चल रही जांच को देखते हुए इस रिलीज का समय विशेष रूप से उल्लेखनीय है। कांग्रेस के सदस्यों सहित आलोचकों ने कंपनी की सुरक्षा समीक्षा प्रक्रियाओं में जवाबदेही और पारदर्शिता बढ़ाने का आह्वान किया है।
अमेरिकी राष्ट्रपति चुनाव के करीब GPT-4o जैसे शक्तिशाली मॉडल की शुरूआत गलत सूचना और संभावित दुरुपयोग के बारे में चिंता पैदा करती है। ओपनएआई के सिस्टम कार्ड का लक्ष्य वास्तविक दुनिया परिदृश्य परीक्षण के माध्यम से जोखिमों को कम करने के लिए कंपनी के सक्रिय उपायों का विवरण देकर इन चिंताओं को कम करना है।
इन प्रयासों के बावजूद, संपूर्ण सुरक्षा परीक्षण प्रक्रिया को शामिल करने के लिए केवल प्रशिक्षण डेटा से आगे बढ़कर, बेहतर पारदर्शिता और बाहरी निरीक्षण की मांग जारी है। कैलिफ़ोर्निया में, बड़े भाषा मॉडल को विनियमित करने और कंपनियों को उनके एआई सिस्टम से होने वाले किसी भी नुकसान के लिए जिम्मेदार ठहराने के लिए कानून पर विचार किया जा रहा है।