AI कंटेंट पर आज से लेबल अनिवार्य: डीपफेक और आपत्तिजनक कंटेंट हटाने की सीमा 3 घंटे निर्धारित

केंद्र सरकार ने AI आधारित डिजिटल कंटेंट के लिए सख्त अनुपालन ढांचा लागू कर दिया है। 10 फरवरी 2026 को जारी नोटिफिकेशन के बाद नए संशोधित आईटी नियम 20 फरवरी 2026 से प्रभावी हो गए हैं।

अब अगर कोई फोटो, वीडियो या ऑडियो AI से तैयार किया गया है, तो उसे साफ तौर पर लेबल करना अनिवार्य होगा। इसके साथ ही सोशल मीडिया प्लेटफॉर्म्स को शिकायत या वैध आदेश मिलने पर आपत्तिजनक कंटेंट तीन घंटे के भीतर हटाना होगा।

नियम लागू होने से एक दिन पहले 19 फरवरी को AI समिट में प्रधानमंत्री नरेंद्र मोदी ने भी कंटेंट की पहचान को लेकर लेबलिंग की जरूरत पर जोर दिया था।

उन्होंने कहा था कि जिस तरह खाद्य उत्पादों पर न्यूट्रिशन लेबल होता है, उसी तरह डिजिटल कंटेंट पर भी प्रामाणिकता बताने वाला लेबल होना चाहिए, ताकि लोगों को असली और फैब्रिकेटेड सामग्री में फर्क समझ आए।

“जैसे खाने की चीजों पर न्यूट्रिशन लेबल होता है, वैसे ही डिजिटल कंटेंट पर भी ऑथेंटिसिटी लेबल होना चाहिए।” — नरेंद्र मोदी

AI कंटेंट पर दृश्य लेबल और तकनीकी पहचान दोनों जरूरी

नए प्रावधान के मुताबिक AI जनरेटेड कंटेंट पर स्पष्ट दृश्य संकेत देना होगा। उदाहरण के तौर पर, अगर किसी नेता का भाषण AI से बनाया गया वीडियो अपलोड किया जाता है, तो उस पर ‘AI Generated’ जैसे टैग का दिखना जरूरी होगा। उद्देश्य यह है कि यूजर पहली नजर में कंटेंट की प्रकृति समझ सके।

सरकार ने सिर्फ दृश्य लेबल तक नियम सीमित नहीं रखे हैं। फाइल के भीतर तकनीकी मार्कर या मेटाडेटा भी सुरक्षित रखना अनिवार्य किया गया है। मेटाडेटा में कंटेंट बनने की तारीख, इस्तेमाल टूल और पहली अपलोड लोकेशन जैसी जानकारी दर्ज रहेगी। जांच एजेंसियां जरूरत पड़ने पर इसी तकनीकी ट्रेल से मूल स्रोत तक पहुंच सकेंगी।

लेबल या मेटाडेटा हटाने की कोशिश पर कार्रवाई

संशोधन का एक अहम हिस्सा छेड़छाड़ रोकना है। पहले कई मामलों में AI से बने कंटेंट से वॉटरमार्क या पहचान संकेत एडिट कर हटाए जाते थे। अब लेबल या मेटाडेटा मिटाने, काटने या बदलने की कोशिश को गैर-अनुपालन माना जाएगा। प्लेटफॉर्म्स को ऐसी तकनीक लगानी होगी कि छेड़छाड़ की स्थिति में कंटेंट स्वतः ब्लॉक या हट सके।

नियमों में यह भी स्पष्ट है कि AI का इस्तेमाल अगर चाइल्ड पोर्नोग्राफी, अश्लील सामग्री, धोखाधड़ी, हथियारों से जुड़ी अवैध जानकारी या किसी व्यक्ति की नकल करके भ्रामक सामग्री बनाने में होता है, तो इसे गंभीर अपराध माना जाएगा।

36 घंटे से घटकर 3 घंटे: हटाने की नई समयसीमा

आईटी नियमों में सबसे बड़ा परिचालन बदलाव कंटेंट हटाने की समयसीमा में आया है। पहले अवैध कंटेंट हटाने के लिए प्लेटफॉर्म्स को 36 घंटे तक का समय मिलता था।

अब यह समय घटाकर 3 घंटे कर दिया गया है। यह समयसीमा कोर्ट या सरकारी आदेश की स्थिति में भी लागू होगी। नोटिफिकेशन के अनुसार ऐसे आदेश के लिए पुलिस में कम से कम डीआईजी रैंक के अधिकारी को अधिकृत किया गया है।

इस बदलाव का असर खासकर डीपफेक मामलों पर पड़ेगा, जहां वायरल होने की गति तेज होती है और देरी से नुकसान बढ़ जाता है। सरकार का मानना है कि शुरुआती घंटों में कार्रवाई से नुकसान की श्रृंखला रोकी जा सकती है।

यूजर घोषणा, प्लेटफॉर्म सत्यापन और जिम्मेदारी

अब प्लेटफॉर्म्स को अपलोड के समय यूजर से घोषणा लेनी होगी कि कंटेंट AI से बना है या नहीं। कंपनियों को ऐसे टूल तैनात करने होंगे जो इस दावे की जांच कर सकें। अगर कोई प्लेटफॉर्म बिना डिस्क्लोजर वाला AI कंटेंट प्रकाशित होने देता है, तो जवाबदेही सिर्फ यूजर की नहीं रहेगी, प्लेटफॉर्म भी जिम्मेदार माना जाएगा।

सरकार ने स्पष्ट किया है कि नियमों का उद्देश्य नवाचार रोकना नहीं, बल्कि जवाबदेह उपयोग सुनिश्चित करना है। इसलिए अनुपालन संरचना में यूजर, प्लेटफॉर्म और AI टूल प्रदाता तीनों की भूमिका तय की गई है।

SGI की परिभाषा, दायरा और छूट

नोटिफिकेशन में ‘सिंथेटिकली जनरेटेड इंफॉर्मेशन’ (SGI) को ऐसी सामग्री बताया गया है, जिसे AI या एल्गोरिदम से इस तरह बनाया जाए कि वह वास्तविक व्यक्ति या घटना जैसी लगे और भ्रम पैदा करे।

यह प्रावधान मुख्य रूप से ऑडियो, विजुअल और ऑडियो-विजुअल कंटेंट पर केंद्रित है। केवल टेक्स्ट को स्वतः SGI नहीं माना गया है, हालांकि गैर-कानूनी टेक्स्ट पर अन्य आईटी प्रावधान लागू रहेंगे।

कुछ सामान्य एडिटिंग गतिविधियों को SGI नहीं माना जाएगा। जैसे ब्राइटनेस सुधारना, वीडियो कंप्रेशन, बैकग्राउंड नॉइज कम करना, सबटाइटल जोड़ना, अनुवाद, या ऑडियो-टू-टेक्स्ट रूपांतरण।

इसी तरह प्रस्तुति सामग्री, डायग्राम या रिसर्च के काल्पनिक उदाहरण भी छूट में आ सकते हैं। लेकिन AI से फर्जी मार्कशीट, नकली सरकारी पत्र या प्रतिरूपण आधारित धोखाधड़ी को छूट नहीं मिलेगी।

सेफ हार्बर बना रहेगा, लेकिन शर्तों के साथ

धारा 79 के तहत सोशल मीडिया इंटरमीडियरी को मिलने वाला ‘सेफ हार्बर’ संरक्षण जारी रहेगा, बशर्ते प्लेटफॉर्म नियमों का पालन करें। यदि शिकायत या आदेश मिलने के बाद भी 3 घंटे में SGI या अवैध कंटेंट नहीं हटाया गया, तो यह संरक्षण खत्म हो सकता है और कंपनी पर कानूनी कार्रवाई संभव होगी।

AI टूल बनाने वाली कंपनियों को भी अपने यूजर्स को अग्रिम चेतावनी देनी होगी कि अवैध AI कंटेंट बनाने पर सामग्री हटाई जा सकती है, अकाउंट सस्पेंड हो सकता है और मौजूदा कानूनों के तहत कार्रवाई भी हो सकती है।

सजा का निर्धारण आईटी एक्ट, 2000 और भारतीय न्याय संहिता के संबंधित प्रावधानों के अनुसार होगा। नोटिफिकेशन में BNS धारा 353 और धारा 336 जैसे प्रासंगिक संदर्भ भी बताए गए हैं।

सरकार का उद्देश्य: ओपन, सेफ, ट्रस्टेड और अकाउंटेबल इंटरनेट

सूचना प्रौद्योगिकी मंत्रालय ने कहा है कि संशोधन का लक्ष्य एक ऐसा इंटरनेट इकोसिस्टम बनाना है, जो खुला भी हो और भरोसेमंद भी। मंत्रालय के अनुसार यह ढांचा जनरेटिव AI से जुड़ी गलत सूचना, इम्पर्सनेशन और चुनावी हेरफेर जैसी चुनौतियों से निपटने में मदद करेगा।

नए नियम लागू होने के साथ अब प्लेटफॉर्म्स की मॉडरेशन प्रणाली, तकनीकी संरचना और कानूनी अनुपालन की असली परीक्षा शुरू हो गई है।