前端为什么要学编程基础?
操作系统运行在硬件之上
浏览器运行在操作系统之上
HTML/CSS/JS运行在浏览器之上
HTML/CSS/JS和数据都来自服务器
存在三层依赖,所以我们前端需要学习编程基础,我们才会知道
CSS/JS是怎样运行的?
JS的变量存储在哪里?
数据怎么从服务器获取?
计算机: 二进制的世界
如何存储0和1
如何存储数字
如何存储字符
如何存储中文
如何存储所有字符
如何用更少的空间来存储
1.内存如何存储0和1*
计算机首先纵向,从上往下选中8个点,然后横向输入电量
内存如何存储0和1.png
存储
1就充电(变成红色)
0就不充电(不变色)
读取
电量大于50% 就是1
电量小于50% 就是0
通过这样内存就实现可以存储0和1
2. 如何存储数字*
计算机只存储0和1,所以存储数字,需要将数字转换为二进制的0和1
十进制 --> 二进制
37(10) == 100101(2) 括号里面的数字代表是什么进制
*
代表是乘,^
代表是多少次方,?
代表未知,需要求出来
37(10) = 3 * 10^1 + 7 * 10^0 = n1 * 2^? + n2 * 2^? = 32 + 4 + 1 = 1 * 2^5 + 1 * 2^2 + 1 * 2^0 = 1 * 2^5 + 0 * 2^4 + 0 * 2^3 + 1 * 2^2 + 0 * 2^1 + 1 * 2^0 = 100101(2)
-37(10) == -100101(2)
负数会以补码的形式存储,比较复杂,这里不做多讲
0.75(10) == 0.11(2)
0.75(10) = 7 * 1/10 + 5 * 1/10^2 = n1 * 1/2 + n2 * 1/4 = 0.5 + 0.25 = 1* 1/2 + 1 * 1/4 = 0.11(2)
小Tips:
为了方便书写,一般会将二进制写为十六进制
二进制 --> 十六进制,每四个二进制代表一个十六进制数
举个例子下面的转换可以跟这个例子推出来:
1111(2) --> F(16)
1111(2) = 2^3 + 2^2 + 2^1 + 2^0 = F(16)
二进制 | 十六进制 |
---|---|
0001 | 1 |
0010 | 2 |
0011 | 3 |
0100 | 4 |
0101 | 5 |
0110 | 6 |
0111 | 7 |
1000 | 8 |
1001 | 9 |
1010 | A |
1011 | B |
1100 | C |
1101 | D |
1110 | E |
1111 | F |
3.如何存储字符*
将每个字符编号
ASCII(American Standard Code for Information Interchange,美国信息交换标准代码)
美国信息交换标准代码是基于拉丁字母的一套计算机编码系统。它主要用于显示现代英语,而其扩展版本EASCII则可以部分支持其他西欧语言,并等同于国际标准ISO/IEC 646。
你想存储a,就需要存储97(10)对应的二进制
97(10) = 9 * 10^1 + 7 * 10^0 = n1 * 2^? + n2 * 2^? = 64 + 32 + 1 = 1 * 2^6 + 1 * 2^5 + 1 * 2^0 = 01100001(2) == 61(16)
你想存储A,就需要存储65(10)对应的二进制
65(10) = 6 * 10^1 + 5 * 10^0 = n1 * 2^? + n2 * 2^? = 64 + 1 = 1 * 2^6 + 1 * 2^0 = 01000001(2) == 41(16)
通过上面的例子说明计算机会认为A和a是不一样,因为所对应的ASCII不同
4. 如何存储中文
微软推出的GBK 字符集(存储生僻字、繁体字、日语、朝鲜语等)
GB2312 共收录 6763 个汉字,同时收录了包括拉丁字母、希腊字母、日文平假名及片假名字母、俄语西里尔字母在内的 682 个字符。
5.如何存储所有字符
unciode万国码,将全球字符编号,包括中日韩文字、藏文、盲文、楔形文字、 颜文字
:-)
、 绘文字
6. 如何将Unicode存到计算机里
低性价比
a -> 00000000 00000000 00000000 011000012 = 0061(16)
你 -> 00000000 00000000 01001111 011000002 = 4F60(16)
高性价比 UTF-8
a -> 01100001
你-> 11100100 10111101 10100000
低性价比,因为计算机需要使用4个字节来存储
下面解释一下"你"的UTF-8
//Unicode你 -> 00000000 00000000 01001111 011000002//utf-8你-> 11100100 10111101 10100000//1110 表示告诉计算机,读取的时候往后读三个字节,每个字节开头都是10,除我之外,10都是表示我跟着前面的
UTF-8 是一种编码方式,不是字符集
现实问题
为什么有些中文软件喜欢用GBK,不用Unicode?
因为在93年-99年都在使用GB 13000,GBK这两种
Javascript使用Unicode字符集,但是没有使用UTF-8编码
Javascript用了UCS-2编码,因为1995年UTF-16还没被发明出来,Javascript也不想使用 UTF-32,Unicode与JavaScript详解
出现的后果:ES5 无法表示 \uFFFF 之后的字符(如 \u1D306),某些情况下会出 bug,Javascript有个Unicode的天坑
作者:饥人谷_区家乐
链接:https://www.jianshu.com/p/7a09175fa87f
共同学习,写下你的评论
评论加载中...
作者其他优质文章