
भारत का सर्वोच्च न्यायालय License CC BY-SA 4.0, via Wikimedia Commons
आर्टिफिशियल इंटेलिजेंस (AI) ने भारत के न्यायिक काम में अप्रत्याशित तरीके से अपनी जगह बना ली है। AI सुप्रीम कोर्ट की संविधान पीठ की सुनवाई की रियल-टाइम ट्रांसक्रिप्ट बना सकता है; ऑटोमेटेड सॉफ्टवेयर ट्रायल कोर्ट में गवाहों के बयान रिकॉर्ड करता है। जज बहु भाषाई केस फाइलों को समझने के लिए, कानूनी शोध और अनुवाद के लिए भी AI उपकरणों का परीक्षण कर रहे हैं। हालांकि, ये प्रयोग एक तनावपूर्ण न्यायिक माहौल में हो रहे हैं, जिससे एक बहुत ही अहम सवाल उठता है: क्या एल्गोरिथ्म निष्पक्षता, पारदर्शिता और मानवीय विवेक को बरकरार रख न्याय की प्रक्रिया को तेज़ कर सकते हैं?
भारत में लाखों मामले बकाया हैं; दरअसल, लंबित मामलों की संख्या कई करोड़ है। इस समस्या से निपटने के लिए, सरकार, सर्वोच्च न्यायालय और कानून और न्याय मंत्रालय के निर्देश पर, ई-कोर्ट परियोजना के तीसरे चरण को लागू कर रही है, जिसका मकसद मशीन लर्निंग और भाषा टेक्नोलॉजी के साथ फाइलिंग, केस मैनेजमेंट और वर्कफ़्लो प्रक्रियाओं को आधुनिक बनाना है। बजट का एक बड़ा हिस्सा AI और ब्लॉकचेन जैसी भविष्य की टेक्नोलॉजी के लिए रखा गया है, जो इस बात का संकेत है कि ऐसे डिजिटल उपकरण न केवल मौजूदा देरी को कम करेंगे वरन इस नियम का भी पालन करेंगे कि मामलों का फैसला सिर्फ जज ही करेंगे। न्यायालयों द्वारा AI को बेतरतीबी से अपनाने के कारण ये ज़रूरी हो जाता है कि वे जवाबदेही, निजता और स्वचालन की सीमाओं के लिए भी नियम तय करें।
AI का वादा: बकाया मामलों का तेज़ी से निबटान
AI का उपयोग इसके पहले हुये डिजिटलीकरण की नींव पर बना है। 2007 में ई-कोर्ट लागू होने के बाद से, इस प्रोग्राम ने ई-फाइलिंग, डिजिटल कॉज़ सूची और ऑनलाइन फैसलों की शुरुआत की, जिसका मकसद ऑनलाइन उपयोग को संभव बनाना था। तीसरा चरण अब न्यायिक जानकारी पर विचार करने के इर्द-गिर्द घूमता है, जिसे अब नेचुरल लैंग्वेज प्रोसेसिंग और मशीन लर्निंग के तहत व्याख्या के लिए डिजिटाइज़ किया गया है।
एक मुख्य नवाचार “सुप्रीम कोर्ट पोर्टल फॉर असिस्टेंस इन कोर्ट्स एफिशिएंसी” (SUPACE) नामक एक AI-आधारित प्लेटफॉर्म है जो न्यायाधीशों और शोध स्टाफ के लिए विशाल केस अभिलेख को संभालने के बारे में सोच-समझकर फैसले लेना आसान बनाता है। SUPACE फैसले नहीं लेता है; यह तथ्यों की पहचान करता है, मिसालें सुझाता है, और रूपरेखा तैयार करता है, जिससे मैनुअल अनुसंधान का समय कम होता है और जज कानूनी तर्क पर ध्यान केंद्रित कर पाते हैं।
भाषा की पहुंच भी एक मुख्य चिंता का विषय है। सुप्रीम कोर्ट ने “विधिक अनुवाद सॉफ्टवेयर” (SUVAS) विकसित किया है, जो फैसलों को अंग्रेजी से अन्य भारतीय भाषाओं में बदलता है, जबकि कुछ हाई कोर्ट स्थानीय भाषाओं में दिए गए फैसलों को अंग्रेजी में बदलने के लिए टूल्स की जाँच कर रहे हैं। AI जनित ट्रांसक्रिप्शन ,अभिलेख के रखरखाव के तरीके को भी बदल रहा है। सुप्रीम कोर्ट ने संवैधानिक मामलों में स्वचालित ट्रांसक्रिप्शन शुरू किया है और वर्ष 2023 से रिकॉर्ड के लिए प्रायः रियल-टाइम में खोजे जा सकने लायक टेक्स्ट बना रहा है।
सबसे महत्वपूर्ण निर्देश केरल हाई कोर्ट ने 2025 में दिया था, जिसमें कहा गया था कि सभी निचली अदालतों को 1 नवंबर, 2025 से गवाहों के बयान रिकॉर्ड करने के लिए AI-इनेबल्ड स्पीच टू टेक्स्ट टूल Adalat.AI का इस्तेमाल करना होगा। हार्वर्ड और MIT जैसे विश्वविद्यालयों के अनुसंधानों से जुड़े एक स्टार्टअप द्वारा निर्मित Adalat.AI, धीमे हाथ से तैयार नोट्स के बजाय तात्कालिक बने डिजिटल ट्रांसक्रिप्ट का इस्तेमाल करता है। अगर ये सिस्टम असफल हो जाता है, तो यह फैसला जजों को हाई कोर्ट के IT निदेशालय द्वारा सत्यापित वैकल्पिक प्लेटफॉर्म्स के ही इस्तेमाल करने की इजाज़त देता है। इस तरह, संवेदनशील ऑडियो के प्रसंस्करण पर नियंत्रण सुनिश्चित किया जाता है।
अधिकारी इन सुधारों को न्यायपालिका को अधिक कुशल और पारदर्शी बनाने की दिशा में कदम बताते हैं। नीति दस्तावेजों में मानवीय गलतियों को ट्रांसक्रिप्शन द्वारा कम करने, ई-फाइलिंग प्रक्रिया के दौरान मूल गलतियों का स्वचालित रूप से पता लगाने और काम के बोझ तले दबे न्यायाधीशों को ज़रूरी मामलों को प्राथमिकता देने में मदद करने में AI की क्षमता पर ज़ोर दिया गया है। न्यायिक सुधार पर टिप्पणीकारों का तर्क है कि, अगर सावधानी से लागू किया जाए, तो ऐसी प्रणाली सुनवाई की अवधि को छोटा कर सकते हैं, प्रतिलेखनऔर अनुवाद की सटीकता में सुधार कर सकते हैं, और वादियों, खासकर दूरदराज के जिलों में जहां कानूनी संसाधन कम हैं, को अपने मामलों की प्रगति के बारे में बेहतर जानकारी दे सकते हैं।
क्या एल्गोरिथम न्यायिक सोच पर हावी हो सकती है?
इस आशावाद के बावजूद, कई जजों और विद्वानों ने चिंताएं जताई हैं। 2023 में दिल्ली हाई कोर्ट से एक खास चेतावनी आई, जब उसने एक ट्रेडमार्क मामले में ChatGPT पर आधारित तर्कों पर विचार करने से इनकार कर दिया। कोर्ट ने कहा कि लार्ज लैंग्वेज मॉडल (LLM) केस के हवाले और तथ्यों को मनगढ़ंत बना सकते हैं, और उनके आउटपुट की स्वतंत्र सत्यापन की ज़रूरत है।
एक अन्य मामले में, उसी दिल्ली हाई कोर्ट की बेंच ने घर खरीदारों को याचिका वापस लेने की इजाज़त दे दी, जब उन्हें पता चला कि उनकी दलीलों के कुछ हिस्से, जिसमें केस के हवाले भी शामिल थे, ChatGPT पर बनाए गए थे। इन दसतावेजों में शामिल शिकायतों में झूठे मामले और काल्पनिक बयान पाये गये। जज ने जेनरेटिव AI जनित अस्त्यापित तथ्यों के इस्तेमाल की आलोचना करते हुए कहा कि ऐसी प्रथाएं कोर्ट को गुमराह कर सकती हैं। इस घटना ने AI के इस्तेमाल से प्राप्त गति और सटीकता के फायदों के बनिस्बत इसके खतरों पर प्रकाश डाला है।
ब्लैक बॉक्स[1] की समस्या इससे कहीं ज़्यादा है। सर्च करने, समराइज़ करने या ट्रांसक्राइब करने के लिए इस्तेमाल होने वाले AI टूल्स ओपेक मॉडल्स पर बनाए जा सकते हैं। जब SUPACE कुछ खास उदाहरणों की ओर ध्यान खींचता है, तो जज और केस लड़ने वाले यह नहीं जान पाते कि उन मामलों को असल में कैसे वरियता दी गई थी। जानकार चेतावनी देते हैं कि इस स्तर की अपारदर्शिता से गलतियों का पता लगाना और मुश्किल हो जाता है और अगर एल्गोरिथम के सुझावों को “तटस्थ” मान लिता जाए तो यह न्यायिक सोच पर असर डाल सकता है।
एक और खतरा बायस यानि पूर्वाग्रह का है। भारतीय केस लॉ, अपने समाज की ही तरह, असमान है और इसलिए, AI को ट्रेनिंग देने के लिए प्रयुक्त डेटासेट पर भी जाति, लिंग, वर्ग या धर्म के आधार पर भेदभाव वाले पैटर्न की छाप हो सकती है। विश्लेषक चेतावनी देते हैं कि AI बेहतर कार्यक्षमता के नाम पर ऐसे पूर्वाग्रह को और मज़बूत करेगा। भारत के मुख्य न्यायाधिपति समेत वरिष्ठ जजों ने यह माना कि AI उन परिदृश्यों में “भेदभाव को बढ़ा सकता है” जहां इसकी ओपेसिटी अभी भी बनी हुई है या जहां इसे अनरिप्रेजेंटेटिव डेटा पर ट्रेनिंग दी गई है।
निजता और सुरक्षा संबंधित चिंताएं भी बढ़ी हैं। ज्यूडिशियल अभिलेख में अत्यधिक सेंसिटिव निजि डेटा होता है, जैसे कि आपराधिक आरोप, वित्त और चिकित्सा की जानकारी। केरल हाई कोर्ट जैसी अदालतों के सभी दिशा निर्देश ऐसे डेटा को सार्वजनिक क्लाउड पर अपलोड करने से रोकती हैं। डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट, 2023, स्वचालित प्रोसेसिंग पर लागू होता है, जिसमें अदालतों में इस्तेमाल होने वाले कई AI टूल्स शामिल हैं। किसी डेडिकेटेड AI कानून की कमी के कारण, अदालतों और डेवलपर्स को गोपनीयता और डेटा सुरक्षा मानदंडों के जोड़ तोड़ से निपटना पड़ता है।
एक और चिंता जो लंबे समय के सुधार को चुनौती देती है, वह है “ऑटोमेशन बायस,” जहाँ इंसान अनजाने में ही कंप्यूटर के आउटपुट पर बहुत ज़्यादा भरोसा करते हैं। उदाहरणतः, जानकारों का कहना है कि जब AI जज के सामने कोई लागू मिसाल या केस वरियता पेश करता है, तो काम के दबाव में, जज अक्सर अनजाने ही किसी मुद्दे पर दोबारा सोचने लग सकते हैं। जैसे-जैसे सिस्टम अधिक निर्बाध होते जा रहे हैं, AI को एक टूल के तौर पर न्यायिक फैसलों में को-साइलेंट लेखक बनने से केवल एक ही बात रोक सकती है – न्यायिक अनुशासन की तरफ से सख्त दखलअंदाज़ी।
बीच का रास्ता: प्रयोग के साथ निगरानी भी
न्यायपालिका लाखों लंबित मामलों के त्वरित फैसलों और नैतिक सुरक्षा उपायों के बीच संतुलन बनाने की कोशिश कर रही है। इस मामले में, Adalat.AI को ज़रूरी बनाकर और निचली अदालतों के लिए एक विस्तृत AI नीति जारी कर, केरल अग्रणी राज्य बन चुका है । यह नीति AI को प्रतिलेखन और अनुवाद के लिए एक प्रशासनिक उपकरण के तौर पर देखती है, जेनरेटिव AI को फैसले का ड्राफ्ट बनाने या नतीजों का अनुमान लगाने से रोकती है, जजों को AI आउटपुट का सख्ती से मूल्यांकन करने की सलाह देती है, और ऐसे बाहरी प्लेटफॉर्म पर रोक लगाती है जहाँ गोपनीय जानकारी अपलोड करने की दरकार होती है।
राष्ट्रीय स्तर पर, सुप्रीम कोर्ट ने IIT मद्रास जैसे संस्थानों के सहयोग से अपने उपकरणों का मूल्यांकन करने और सभी कोर्ट IT सिस्टम में इसके समायोजन का मूल्यांकन करने के लिए एक AI कमेटी बनाई है। सरकारी बयानों से पता चलता है कि अदालतों में AI के इस्तेमाल के लिए एक समान नीति पर काम चल रहा है जो नैतिक और निजता दिशानिर्देशों के मुताबि होगी। अधिकारी इस बात पर ज़ोर देते हैं कि AI को केवल “इंसानी निगरानी, नैतिक निरीक्षण और निजता सुरक्षा” के साथ ही स्वीकार किया जाएगा, और केवल जज ही आदेशों पर दस्तखत करने के लिए अधिकृत होंगे।
तथापि, भारत में कोई भी सर्वव्यापक AI कानून नहीं है। आज कुछ नियम कोर्ट के सर्कुलर, डेटा प्रोटेक्शन के कानूनों और टेक्नोलॉजी पर आम नीतियों में मिलते हैं। न्यायिक अखंडता पर हुये अध्ययन से पता चलता है कि पूर्वाग्रह का नियमित अंकेक्षण किया जाना चाहिए, तथा जब भी AI फाइलिंग या फैसलों पर असर डाले तो उसका खुलासा करना चाहिए, और वादियों को भी उनके केस पर असर डालते AI उपकरणों को चुनौती देने का विकल्प देना चाहिए। विशेषज्ञ ट्रायल कोर्ट में बेहतर तकनीकी इंफ्रास्ट्रक्चर, AI आउटपुट पर सवाल उठाने के लिए न्यायिक ट्रेनिंग और ये उपकरण क्या कर सकते हैं और क्या नहीं, इस बारे में सार्वजनिक शिक्षा की ज़रूरत पर ज़ोर देते हैं।
आज की बड़ी चुनौती AI को अपनाना नहीं है, बल्कि इसके साथ मिलकर काम करने की क्षमता है। बैकलॉग, भाषा की रुकावटें और कानूनी जानकारी तक पहुंच में असमानता जैसे असली मुद्दों को AI उपकरणों से कम किया जा सकता है। हालांकि, इस बात से इनकार नहीं किया जा सकता कि रोज़ाना की न्यायिक प्रक्रिया में ओपेक एल्गोरिथम का इस्तेमाल करने से उनकी जवाबदेही कम हो सकती है। फिलहाल, भारत के न्यायाधीश इंसानों के पास नियंत्रण रखने हेतु दृढ़प्रतिज्ञ लगते हैं। वे AI को एक सहायक मानते हैं, न कि कोई दैवज्ञ। यह संतुलन कितने समय तक बना रहेगा, यह न सिर्फ इंसाफ मिलने की दर तय करेगा बल्कि इस प्रक्रिया में जनता के भरोसे का स्तर भी तय करेगा।
- अनुवादक की टिप्पणीः ओपेक मॉडल ऐसे कॉम्प्लेक्स सिस्टम (मसलन डीप न्यूरल नेटवर्क) होते हैं जो सटीक नतीजे देते हैं, लेकिन जिनके अंदर के फैसले लेने की प्रक्रिया या तो पूर्णतः छिपी होती हैं या इंसानों को आसानी से समझ नहीं आती। इस तरह वे एक “ब्लैक बॉक्स” की तरह काम करते हैं जहाँ आप इनपुट और आउटपुट तो देख पाते हैं, लेकिन वे “क्यों” ऐसे बने ये जान नहीं पाते।







