计算机的诞生
计算机的产生便是用来计算的。从最早的人类用手指计算一直到现在的计算机都是为了弥补上一代的计算不足。
从手指计算开始,计数无法记录太高。
使用石头进行辅助,记录变大了,但是效率变低了。
后来又出现结绳,但是太麻烦了,还有长度的限制。
一直到出现算盘,利用进位制计数。
但随着科技的发展,计算的工作越发繁重,诞生了星盘,计算尺等等辅助计算使计算更加快捷,精准,简便。现代计算机也应运而生。
新的工具产生,劳动量就会下降,发展就会加快。
总的来说计算机的发展经历了4个阶段
- 手动阶段
- 机械阶段
- 机电阶段
- 电子阶段
其中在机械阶段演变成机电阶段的过程中,发生了一个重大的变化,传统的电机械结构转变为纯电路结构,内部的计数方式也由十进制转变到了二进制。
其根本原因就是电路有通路和断路两个状态。
电子组件也逐渐进化
机械继电器 - 真空三极管 - 晶体管
计算机的计数
不同于我们看到的十进制那样,在二进制的机器里,计算机的内部可以理解成无数个开关,记录0和1。
用0表示false 1表示true
并产生了最基础的 与门 或门 非门
和 异或门。
当然,也有过五进制等这种计算的存在。通过电平的高低去记录,但这样带来的后果便是电平的高低是会被环境所影响的,这是灾难般的影响。
单位 | 含义 |
---|---|
bit (比特) | 一个比特代表二进制中的一位,只有0和1 |
Byte(字节) | 一个字节代表8个二进制,为8位。是计算机中的最小储存单位 |
kb | 1kb = 1024 bit |
kB | 1kB = 1024 Byte |
MB | 1MB = 1024 kB |
GB | 1GB = 1024 MB |
TB | 1TB = 1024 GB |
计算机编码
计算机编码的统一是为了在不同计算机之间进行信息交互。
著名英国作家 弗朗西斯·培根 Francis Bacon 曾用 5位序列来对英文进行编码,在十六世纪用来传递秘密信件。
5bit 可以寸 2^5 = 32 个可能的值 对于英文26的字母已经足够了,但是不能对标点符号,数字,大小写字母进行表示。
ASCII(美国信息交换标准代码),发明于1963年,使用7bit,足够储存128个不同的值,同时满足了大小写字母,以及常用的标点符号,数字以及@这样的字符(例如 a:97 A:65)。同时当时如果没有换行符,文字会超出屏幕的边缘,ASCII里用10代表[LINE FEED]换行符。
因为ASCII是非常早的标准,更重要的是使当时不同公司的计算机能够交换数据,所以一直沿用至今。这种通用交换信息的能力叫做 互用性(Interoperability),但他有个限制,是为了英语而设计的。上面说过计算机的最小储存单位是1Byte = 8bit,而ASCII最早使用7bit,而剩下的128-255是给各个国家自己保留使用的(后来改成了常用符号),这些对于部分国家来说完全够用了,但是问题是在面对中国 日本 韩国时 彻底崩溃了。
为了解决这个问题,每个国家都发明了自己的编码方案,但都互不兼容,这就是导致了我们所常说的 乱码(Mojibake)。
于是1992年Unicode应运而生, 一种统一了所有编码的标准, 解决了不同国家的编码不同问题。最常见的Unicode是16bit的,2^16个字符可以使用,甚至包含了emoji字符。
而一些格式,例如mp3,wmv,jpg等用来表示照片,电影或是音乐都是遵循着自己的标准,但归根结底在计算机内都是一长串bit,包括我们的email,网页甚至操作系统在计算机里都是 0 和 1.
计算机是如何计算的 - ALU
建议自行搜索容易理解的文章或是视频
计算机真正的目标是计算,或者说是如何有意义的去处理数字。比如两个数的相加,相减。
而这些操作都是由计算机的 算术逻辑单元(arithmetic and logic unit) 进行处理的。
ALU由1个算术单元和1个逻辑单元组成。
-
算术单元 (arithmetic)
负责计算机里的所有数字操作,比如加减或是增量运算。
上面是关于算术单元简单的示意
如果最后一个全加器输出了carry,这里代表出现了第九位,我们就叫做溢出 overflow. - 逻辑单元 (logic)
逻辑单元不执行算术,执行 与 或 非 的操作,也执行简单的数值测试。比如检查一个数是不是负数。
ALU的3个常用FLAG位 OVERFLOW 溢出位 ZERO 0位 NEGATIVE 负数位
计算机的“记忆”
计算机通过ALU运算过的结果,如果直接扔掉那就没有任何意义了。必须找个地方存起来,并且可能还要进行连续的运算,这时候就需要用到计算机的内存了。
你可能遇到过在画图或是写文档时候遇到断电,或是电脑死机,而在重新开启后缺发现刚才的数据不在了。
而你丢失数据的原因是,电脑用的是 随机寄存器 RAM (random access memory)
而另一种储存,在你电脑突然断电或者死机也会持久存在,持续储存 persistent memory
一个锁存器可以存储一个bit,锁存器前加上门来控制是否可以储存 ,这个电路交 门锁 Gated Latch
一组锁存器组成的电路我们叫 寄存器 Register, 寄存器能储存多少bit 叫做 位宽 width
计算机早期使用8位寄存器,然后发展成16位 32位 和如今最常见的 64位。
在使用寄存器时,我们需要打开寄存器内所有的锁存器,可以使用一根线链接内部所有锁存器进行打开,然后分别向其中的锁存器写入数据,然后将关闭 允许写入线 的电路。
对于8bit寄存器来说,并排放锁存器勉强够用,而64bit寄存器就要64根数据线,6464根输出线,哪怕只要1根 允许写入线 ,那最少也就129根线了。解决方案是使用矩阵。
这部分稍显复杂,简单的解释就是锁存器以矩阵形式放置,通过横纵两根线来控制单个锁存器的启用,1根线同时作为输入和输出,在打开write enable (所有锁存器共享)输出,打开read enable(所有锁存器共享)记录输入。这样记录256bit只用用到16+16+3 = 35根线。
比如刚才的矩阵,我们要定位某个锁存器,比如在第4列 第11行,就可以写作 0100 1011,那么地址控制,需要用到8bit,矩阵横纵各一个4bit多路复用器
现在我们将上面的储存向上抽象,用8个256-bit memory组成一个 8*256bit = 256byte的储存。
现代内存就是在这个基础上不断打包扩大至更大规模。
内存最重要的一个特性就是可以随时访问任何一个位置,因此叫做 随机存取储存器 RAM random access memory。内存就像人类的短期记忆,记录当前在做什么事。