मैंने अपने करियर का एक बड़ा हिस्सा टेक्नोलॉजी और ट्रांसफॉर्मेशन की दुनिया में बिताया है. कभी ऐसे सिस्टम बनाए जो बड़े पैमाने पर काम कर सकें. कभी जो काम नहीं कर सके उन्हें बंद भी किया. कई बार रात-रात भर वॉर रूम्स में काम किया और ये सब करने के दौरान एक बात मेरे अंदर बैठ गई और अब यही बात बार-बार परेशान करती है. मुझे लगता है कि हम शायद मशीनों को वो फैसले लेने सिखा रहे हैं, जिनकी जिम्मेदारी लेने का हौसला हममें अब नहीं बचा.
हम ऐसा इसलिए नहीं कर रहे हैं क्योंकि हम बुरे हैं या आलसी हैं, बल्कि स्पीड, स्केल और डिजिटल दक्षता की दौड़ में हमने अपनी असली सोच-समझ से लिए जाने वाले निर्णयों को धीरे-धीरे किनारे कर दिया है. अब AI ये तय करने लगा है कि किसे लोन मिलेगा, किसे हेल्थकेयर, किसे नौकरी, किसे पैरोल या एजुकेशन या यहां तक कि सिटिजनशिप भी एआई तय कर रहा है. बस, दिक्कत असल में यही से शुरू होती है.
वो दिन जब टेक्नोलॉजी से मेरा इंप्रेशन टूट गया
मुझे एक दिन बहुत अच्छे से याद है. मैं एक AI-आधारित सिस्टम का रिव्यू लीड कर रहा था. ये सिस्टम कंपनियों के अंदर पॉलिसी वायलेशन केसों को 'ट्रायएज' करता था, मतलब कौन-सा केस सीरियस है और किसे लो-रिस्क मानना है. इरादा अच्छा था, बॉटलनेक कम करना, गंभीर मामलों को जल्दी पकड़ना, और इंसानों पर से बोझ कम करना. पायलट बहुत सफल लग रहा था सस्ता, तेज और 'कंसिस्टेंट'. कंप्लायंस लीड खुश था. डैशबोर्ड्स ग्रीन थे. सब कुछ परफेक्ट.
...लेकिन भीतर से कुछ गड़बड़ लग रही थी
मुझे ऐसा लग रहा था कि सिस्टम की लॉजिक यानी वो असल कारण जिससे तय होता था कौन-सा केस गंभीर है और कौन-सा हल्का. असल में ये सब समझ ही नहीं आ रहा था. वो डेटा पर बेस्ड प्रॉक्सी वेरिएबल्स थे जिन्हें अब कोई सही से नहीं समझ पा रहा था. मसलन, शुक्रवार की दोपहर किसी जूनियर एम्प्लॉई ने अगर कोई केस फ्लैग किया तो उसके लो-प्रायोरिटी होने की संभावना ज्यादा थी. ये जानबूझकर नहीं हुआ था, बस ट्रेनिंग डेटा में यही पैटर्न था.
मतलब हमने गलत चीज को ऑप्टिमाइज कर दिया था और किसी को पता भी नहीं चला क्योंकि नतीजे एफिशिएंट दिख रहे थे. मैंने रोलआउट रोक दिया. मॉडल को री-ट्रेन किया. तीन हफ्ते का टाइम गंवाया. लेकिन हमने अपनी अंतरात्मा वापस पा ली. उस दिन मैंने टेक्नोलॉजी से इंप्रेस होना बंद कर दिया और ये चिंता करनी शुरू कर दी कि हमने चुपचाप इसे क्या बनने दिया है.
AI नैतिकता नहीं सिर्फ पैटर्न समझता है
हम इन सिस्टम्स को 'इंटेलिजेंट' कहते हैं, लेकिन ये इंसानों वाली समझदारी नहीं रखते. इन्हें न न्याय की फिक्र है, न निष्पक्षता की, न अस्पष्टताओं से जूझना आता है. AI बस पैटर्न पहचानता है. लेकिन ये पैटर्न कहां से आते हैं? हमारे पुराने डेटा से. और वो डेटा असल में टूटा-फूटा, पक्षपाती और असमानताओं से भरा है. हम उन्हीं ग़लतियों को मशीन में डाल देते हैं और फिर उम्मीद करते हैं कि वो इंसान से बेहतर फैसले लेगी. असलियत ये है कि हमने गलतियों को ही और बढ़ा दिया है.
मैंने वित्तीय सेवाओं की दुनिया में देखा है कि अच्छी नीयत से बनाए गए मॉडल भी कैसे खतरनाक नतीजे दे सकते हैं. कैसे ये क्रेडिट स्कोर सिस्टम गरीब इलाकों के लोगों को डाउन-रैंक कर देता है. हायरिंग टूल्स कुछ खास यूनिवर्सिटी या शहरों के लोगों को ज्यादा तवज्जो देते हैं. फ्रॉड अल्गोरिद्म्स उन यूजर्स को फंसाते हैं जिनका डिजिटल पैटर्न 'Majority' जैसा नहीं दिखता.
ये नतीजे बुरी नीयत से नहीं आए. ये सिर्फ सोचे-समझे बिना ऑप्टिमाइजेशन का असर थे. लेकिन क्योंकि आंकड़े अच्छे दिख रहे थे इसलिए असल नुक़सान दिखा ही नहीं जब तक किसी ने सवाल पूछने की हिम्मत नहीं की.
Accuracy और Morality अलग-अलग हैं!
हमें याद रखना चाहिए कि सटीकता (accuracy) और नैतिकता (morality) एक जैसी चीज़ नहीं हैं. धीरे-धीरे हमारी नैतिक जिम्मेदारी खत्म हो रही है. मुझे नहीं लगता कि AI खुद बुरी चीज़ है, लेकिन ये नैतिक जिम्मेदारी दूसरों पर डाल देने की खतरनाक आदत को बढ़ावा देता है. असल में यही सबसे बड़ा खतरा है. इसे ऐसे समझें.
स्टेप 1: टीम एक सिस्टम बनाती है ताकि मुश्किल फैसला आसान हो जाए.
स्टेप 2: कोई स्टेकहोल्डर कह देता है, 'मॉडल recommend करता है तो हम मान लेते हैं.'
स्टेप 3: मॉडल कोई अजीब/शक वाला सुझाव देता है मगर कोई bottleneck नहीं बनना चाहता इसलिए सवाल नहीं होते.
स्टेप 4: बिना गहरी समीक्षा के वही सुझाव लागू (ship) कर दिया जाता है.
स्टेप 5: बाद में जवाबदेही पूछी जाती है तो कहा जाता है, 'मॉडल ने ऐसा कहा था.'
ये सुनने में बोरिंग लगता है. लेकिन मैंने देखा है कैसे पूरे करियर-बदलने वाले फैसले ऐसे ही एक स्प्रेडशीट के नंबर पर ले लिए गए, जिसे कोई ठीक से समझ भी नहीं रहा था. क्यों? क्योंकि कोई भी लाइन खींचने की जिम्मेदारी लेना नहीं चाहता था.
क्यों सिर्फ Regulation काफी नहीं
आजकल AI regulation की मांग बढ़ रही है, और हां, ये बेहद जरूरी है. लेकिन नियम-कानून हमें उस बीमारी से नहीं बचा पाएंगे जहां फैसले बिना सोचे समझे लिए जाते हैं, जहां सिस्टम में इंसानियत की जगह नहीं, जहां ऑप्टिमाइज़ेशन है पर एथिक्स नहीं. एथिक्स कोई चेकलिस्ट नहीं है. ये एक आदत है. एक ठहराव है. ये वो हिम्मत है कि जब सब कुछ सही दिख रहा हो तब भी आप सवाल पूछ सकें.
ये हॉलवे की बातचीत में दिखता है. उस एनालिस्ट में दिखता है जो पूछता है कि 'हम ये वेरिएबल क्यों इस्तेमाल कर रहे हैं?' उस प्रोडक्ट लीड में भी दिखता है जो टाइमलाइन बढ़ाने को कहता है ताकि सोचने का वक्त मिले. उस एग्जीक्यूटिव में भी जो कहता है कि स्पीड का नुकसान झेल लेंगे, लेकिन कुछ ऐसा लॉन्च नहीं करेंगे जो सही नहीं लगता.
...और ये सब हमें शुरुआत से करना होगा. तब नहीं जब मीडिया में इसकी खूब चर्चा हो चुकी हो. हमें सोचना होगा कि हमें किस तरह की लीडरशिप चाहिए. मैं गिनती भूल गया हूं कि कितने AI पैनल्स में लोग कहते हैं, 'हमें एथिकल फ्रेमवर्क्स चाहिए.'
फ्रेमवर्क्स हमारे पास हैं. अब हमें चाहिए एथिकल इंस्टिक्ट. ये किसी टूलकिट से नहीं आते. ये हमारे भीतर की संस्कृति से आते हैं. टीम में ऐसे लोग रखने से आते हैं जो अलग नजरिए से देखते हैं, जो वो नोटिस करते हैं जो दूसरों से छूट जाता है और जो ये कहने का साहस रखते हैं, 'हमें ये अभी लॉन्च नहीं करना चाहिए.'
बेहतरीन लीडर वही हैं जो सिर्फ आउटकम को ऑप्टिमाइज़ नहीं करते, बल्कि असहज सवालों के लिए जगह भी रखते हैं क्योंकि वहीं से जजमेंट आता है और जजमेंट से ही इंसानियत शुरू होती है.
आखिरी बात अगर नैतिकता चाहिए तो उसे शुरुआत से जोड़ना होगा. AI हमारी जिंदगी पर उतना असर डालेगा जितना हम सोच भी नहीं रहे. ये कोई हाइप नहीं, सच्चाई है. लेकिन साफ कह दूं, अगर आप नैतिकता को सिस्टम बनाते वक्त नहीं जोड़ते तो आप जानबूझकर उसे बाहर छोड़ रहे हैं. असल में टेक्नोलॉजी में न्यूट्रल कुछ नहीं होता. हर लाइन कोड में एक वैल्यू छिपी होती है. हर फीचर में एक ट्रेड-ऑफ. हर फैसला एक वर्ल्डव्यू दिखाता है या तो आपका या वो जो आपको विरासत में मिला है. असल सवाल ये नहीं है कि हम 'इंटेलिजेंट सिस्टम' बना सकते हैं या नहीं. वो हम बना चुके हैं.
सवाल ये है कि क्या हमारे पास अब भी इतनी हिम्मत और विनम्रता है कि उन्हें बनाते वक्त हम इंसान बने रहें. क्योंकि जिस दिन हमने 'क्या हमें ये करना चाहिए?' पूछना छोड़ दिया और सिर्फ 'क्या हम ये कर सकते हैं?' पूछना शुरू कर दिया, उसी दिन हमने पहले ही अपनी जिम्मेदारी मशीन को सौंप दी.
(लेखक आदित्य विक्रम कश्यप इस वक्त न्यूयॉर्क में मॉर्गन स्टैनली के वाइस प्रेसिडेंट हैं. वे अवॉर्ड-विनिंग टेक्नोलॉजी लीडर हैं. ये उनके निजी विचार हैं.)
---- समाप्त ----