कंप्यूटर कोड
कंप्यूटर में डेटा अक्षर, विशेष वर्ण और अंकों में हो सकता है। इसलिए, उन्हें अल्फ़ान्यूमेरिक डेटा कहा जाता है। डेटा में प्रत्येक अक्षर, प्रतीक या अंक को एक विशेष कोड द्वारा दर्शाया जाता है।
बाइनरी कोडेड दशमलव (BCD – Binary Coded Decimal)
इसमें पूरे दशमलव संख्या को बाइनरी में बदलने के बजाय, दशमलव संख्या के प्रत्येक अंक को उसके चार अंकों के बाइनरी समकक्ष में बदल दिया जाता है (रेटिंग)से बदलो (प्रतिस्थापित)पूरा हो गया है। इसे 4 बिट बीसीडी कोड कहते हैं।
ASCII (ASCII – सूचना विनिमय के लिए अमेरिकी मानक कोड)
ASCII 1963 में ANSI (अमेरिकन नेशनल स्टैंडर्ड इंस्टीट्यूट) द्वारा शुरू किया गया एक लोकप्रिय कोडिंग सिस्टम है। इसमें एक कैरेक्टर के लिए 8 बिट्स और तेजी से प्रतिनिधित्व के लिए हेक्साडेसिमल नंबर सिस्टम का उपयोग किया गया था। कंप्यूटर के कीबोर्ड में इस्तेमाल होने वाले हर कैरेक्टर को एक विशेष ASCII कोड दिया जाता है। इसमें एक कैरेक्टर के लिए 8 बिट का इस्तेमाल किया जाता है।
यूनिकोड-यूनिवर्सल कोड
कंप्यूटर के बढ़ते उपयोग और विभिन्न भाषाओं में कंप्यूटर के उपयोग ने एक सार्वजनिक कोड की आवश्यकता को जन्म दिया जिसमें दुनिया में प्रत्येक वर्ण के लिए एक अलग कोड निर्धारित किया गया है ताकि इसे हर भाषा, हर कार्यक्रम और में इस्तेमाल किया जा सके। हर सॉफ्टवेयर। इसके लिए यूनिकोड की व्यवस्था की गई थी, जो एक लाख वर्णों का प्रतिनिधित्व करने की क्षमता रखता है।
यूनिकोड विश्व की सभी भाषाओं में प्रयुक्त होने वाले पहले 256 वर्णों का प्रतिनिधित्व ASCII कोड के समान ही है। इसमें प्रत्येक वर्ण को 32 बिट्स में दर्शाया जाता है। यूनिकोड में तीन प्रकार की व्यवस्था का प्रयोग किया जाता है।
i. UTF-8 (UTF-8-यूनिकोड परिवर्तन प्रारूप-8)
यूटीएफ -8 प्रारूप में सभी यूनिकोड वर्ण एक, दो, तीन या चार बाइट्स के कोड में परिवर्तित हो जाते हैं।
ii. UTF-16 (UTF-16)
इस प्रारूप में, यूनिकोड वर्णों को एक या दो शब्दों (1 शब्द = 16 बिट) के कोड में परिवर्तित किया जाता है। इसलिए इसे Word Oriented Format भी कहते हैं।
iii. UTF-32 (UTF-32)
इस कोड में सभी अक्षरों को दो शब्दों यानी 32 बिट यूनिकोड में बदल दिया जाता है।
If you liked the information of this article, then please share your experience by commenting. This is very helpful for us and other readers. Thank you