सुप्रीम कोर्ट परिसर के एक भरे हुए कॉन्फ़्रेंस रूम में वरिष्ठ अधिकारियों, शोधकर्ताओं और न्यायाधीशों ने कल “आर्टिफ़िशियल इंटेलिजेंस और न्यायपालिका पर श्वेत पत्र” के विमोचन के लिए एकत्रित हुए। दस्तावेज़-सच कहें तो-तकनीकी रिपोर्ट से अधिक एक रोडमैप जैसा लगा, जो आने वाले दशक में भारत में न्याय वितरण को आकार देगा।
सुप्रीम कोर्ट के सेंटर फ़ॉर रिसर्च एंड प्लानिंग (CRP) द्वारा तैयार इस रिपोर्ट में बताया गया है कि कैसे दुनिया भर की अदालतें बुनियादी डिजिटाइजेशन से कहीं अधिक उन्नत मशीन-लर्निंग टूल्स की ओर बढ़ गई हैं। एक वरिष्ठ अधिकारी ने संक्षेप में कहा-“अदालतों को अब रुककर, चारों ओर देखकर तय करना होगा कि कौन-सी तकनीक हमारी न्याय प्रक्रिया में सुरक्षित रूप से प्रवेश कर सकती है।”
वैश्विक सीख… और चेतावनियाँ
श्वेत पत्र की शुरुआत अंतरराष्ट्रीय AI ढाँचों की यात्रा से होती है-UNESCO के नैतिक दिशानिर्देशों से लेकर EU और कनाडा के जोखिम-आधारित मॉडल तक। कई देशों में AI केस फाइलों को सारांशित करता है, कहीं यह सीमा-पार जांचों को ट्रैक करता है, तो कहीं सज़ा प्रवृत्तियों का विश्लेषण करता है। लेकिन इन सफलताओं के बीच साफ़ चेतावनियाँ भी दर्ज हैं।
रिपोर्ट कई गंभीर खतरों को सीधे उजागर करती है: फर्जी केस उद्धरण, एल्गोरिथमिक पक्षपात, और ऐसे डीपफेक जो साक्ष्य को दूषित कर सकते हैं। लेखक स्पष्ट रूप से लिखते हैं-“गति न्याय के स्थान पर नहीं आ सकती,” यह याद दिलाते हुए कि हर समय अंतिम निर्णय न्यायाधीश का ही होना चाहिए।
भारत की AI यात्रा
जहाँ भारत आज खड़ा है, वह आश्चर्यजनक रूप से मजबूत है। SUPACE (तथ्य विश्लेषण), SUVAS (अनुवाद) और AI ट्रांसक्रिप्शन सिस्टम TERES जैसे उपकरण पहले से प्रयोग में हैं। श्वेत पत्र इन तकनीकों के काम करने के तरीके को सरल भाषा में समझाता है और बार-बार यह स्पष्ट करता है कि ये उपकरण केवल सहायक हैं-न कि निर्णय लेने वालों का विकल्प।
एक दिलचस्प बिंदु यह भी सामने आता है कि मशीन-लर्निंग मॉडल जल्द ही आने वाली याचिकाओं को स्वतः श्रेणियों में बाँट सकते हैं-जैसे सेवा मामले, कर विवाद, आपराधिक अपील-जिससे रजिस्ट्री का काम तेज़ होगा। रिपोर्ट यह भी चेतावनी देती है कि ऐसी किसी भी छँटाई की अंतिम जाँच हमेशा मानव द्वारा ही की जानी चाहिए।
दस्तावेज़ का केंद्र: नैतिक रूपरेखा
रिपोर्ट का बड़ा हिस्सा नैतिकता पर है-जो भारतीय न्यायाधीशों की सबसे बड़ी चिंता भी है।
रिपोर्ट AI के लिए छह ठोस सिद्धांत सुझाती है:
- ह्यूमन इन द लूप
- सटीकता और सत्यापन
- गोपनीयता और निजता
- पक्षपात-निवारण
- स्पष्ट खुलासा
- प्रमुख न्यायिक कार्यों में सीमित भूमिका
एक न्यायाधीश ने कार्यक्रम के दौरान मुझसे अनौपचारिक रूप से कहा-
“अगर कोई टूल कोई ड्राफ़्ट लिखता है जिसे मैं पढ़कर भरोसा करूँ, तो मुझे पता होना चाहिए कि हर वाक्य कहाँ से आया है। वरना यह कानून नहीं, अंदाज़ा है।”
संस्थागत सुरक्षा उपाय: समितियाँ, प्रशिक्षण, और इन-हाउस मॉडल
रिपोर्ट केवल सिद्धांत नहीं देती, बल्कि ठोस कदम सुझाती है:
- हर अदालत में AI नैतिकता समिति
- वाणिज्यिक मॉडलों के बजाय इन-हाउस AI टूल्स
- न्यायाधीशों एवं कर्मचारियों हेतु अनिवार्य प्रशिक्षण
- याचिकाओं में AI के उपयोग की अनिवार्य सूचना / खुलासा
रिपोर्ट कई बार चेतावनी देती है कि मुफ्त सार्वजनिक AI टूल्स में डेटा संग्रहण और गोपनीयता के बड़े खतरे होते हैं-जो न्यायिक कार्य में “किसी भी रूप में स्वीकार्य नहीं”।
अदालत का निर्णय / आदेश (समापन)
श्वेत पत्र अंत में यह औपचारिक सिफारिश करता है कि AI को केवल चरणबद्ध, नैतिकता-आधारित ढाँचे में ही अपनाया जाए। इसमें स्वतंत्र ऑडिट, सुरक्षित डेटासेट, स्पष्ट जवाबदेही और हर स्तर पर मानवीय नियंत्रण अनिवार्य बताया गया है।
रिपोर्ट फिर दोहराती है कि AI दक्षता बढ़ा सकता है, लेकिन न्यायिक विवेक का स्थान कभी नहीं ले सकता।
Document Title: White Paper on Artificial Intelligence and Judiciary White Paper on AI
Issuing Authority: Supreme Court of India – Centre for Research and Planning (CRP)
Document Type: Policy / Research White Paper
Publication Date: November 2025