'A' 在電腦裡,通常是以 ASCII table 裡面的編碼方式給它定義… 所以 "1000001" 這一串的二進位數字,我們就把它定義成字元的 'A',大家也接受後,大家看到電腦裡的這一串 "1000001" 就會把它當成說看到 'A' 這個字元…
很難理解?
事實上,我反問板主一件事,你能想通,這個問題就不難…
文字所代表的意義事實上就跟 ASCII table 一樣,是人類給它定義的… 所以你寫一個 "狗" 這個字,大家會了解這個在紙上一橫一豎幾個筆畫畫出來的符號代表現實生活裡面一隻活生生的狗的樣子,是因為絕大多數的會中文的人同意這個定義,所以大家看到這個字就會聯想到 "狗" 這個實體… (所以你可以想像有一個很大的 table,裡面放滿了許多中文的詞彙,每個詞彙都有相對應的東西… 這跟 ASCII table 的意思很像,只是 ASCII table 小多了)
相反的,你寫 "狗" 這個字,給不懂中文的人,他們只會覺得這是鬼畫符,不會了解這個的意義… (同理,你傳 "1000001" 這串二進位數字給不懂 ASCII table 的電子機器 / 程式看,他也不會了解這是 'A' 這個字元,它只會看到 "1000001" 這串字元)
-=-=-
所以啦,要是你想定義說 "10" 就是 'A' 可不可以?當然可以… 但這只有你看得懂,不是共通的規格… (像是自已寫給自已看的秘密編碼日記之類的… 自已看得懂,別人就看不懂了)
內文搜尋

X