第十五周作业

1、Nginx+Keepalived实现站点高可用

1. Keepalived介绍

Keepalived是一个基于VRRP协议来实现的服务高可用方案,可以利用其来避免IP单点故障,类似的工具还有heartbeat、corosync、pacemaker。但是它一般不会单独出现,而是与其它负载均衡技术(如lvs、haproxy、nginx)一起工作来达到集群的高可用。

1.1 VRRP协议

VRRP全称 Virtual Router Redundancy Protocol,即 虚拟路由冗余协议。可以认为它是实现路由器高可用的容错协议,即将N台提供相同功能的路由器组成一个路由器组(Router Group),这个组里面有一个master和多个backup,但在外界看来就像一台一样,构成虚拟路由器,拥有一个虚拟IP(vip,也就是路由器所在局域网内其他机器的默认路由),占有这个IP的master实际负责ARP相应和转发IP数据包,组中的其它路由器作为备份的角色处于待命状态。master会发组播消息,当backup在超时时间内收不到vrrp包时就认为master宕掉了,这时就需要根据VRRP的优先级来选举一个backup当master,保证路由器的高可用。

在VRRP协议实现里,虚拟路由器使用 00-00-5E-00-01-XX 作为虚拟MAC地址,XX就是唯一的 VRID (Virtual Router IDentifier),这个地址同一时间只有一个物理路由器占用。在虚拟路由器里面的物理路由器组里面通过多播IP地址 224.0.0.18 来定时发送通告消息。每个Router都有一个 1-255 之间的优先级别,级别最高的(highest priority)将成为主控(master)路由器。通过降低master的优先权可以让处于backup状态的路由器抢占(pro-empt)主路由器的状态,两个backup优先级相同的IP地址较大者为master,接管虚拟IP。

与heartbeat/corosync等比较

直接摘抄自http://www.linuxidc.com/Linux/2013-08/89227.htm:

Heartbeat、Corosync、Keepalived这三个集群组件我们到底选哪个好,首先我想说明的是,Heartbeat、Corosync是属于同一类型,Keepalived与Heartbeat、Corosync,根本不是同一类型的。Keepalived使用的vrrp协议方式,虚拟路由冗余协议 (Virtual Router Redundancy Protocol,简称VRRP);Heartbeat或Corosync是基于主机或网络服务的高可用方式;简单的说就是,Keepalived的目的是模拟路由器的高可用,Heartbeat或Corosync的目的是实现Service的高可用。

所以一般Keepalived是实现前端高可用,常用的前端高可用的组合有,就是我们常见的LVS+Keepalived、Nginx+Keepalived、HAproxy+Keepalived。而Heartbeat或Corosync是实现服务的高可用,常见的组合有Heartbeat v3(Corosync)+Pacemaker+NFS+Httpd 实现Web服务器的高可用、Heartbeat v3(Corosync)+Pacemaker+NFS+MySQL 实现MySQL服务器的高可用。总结一下,Keepalived中实现轻量级的高可用,一般用于前端高可用,且不需要共享存储,一般常用于两个节点的高可用。而Heartbeat(或Corosync)一般用于服务的高可用,且需要共享存储,一般用于多节点的高可用。这个问题我们说明白了。

又有博友会问了,那heartbaet与corosync我们又应该选择哪个好啊,我想说我们一般用corosync,因为corosync的运行机制更优于heartbeat,就连从heartbeat分离出来的pacemaker都说在以后的开发当中更倾向于corosync,所以现在corosync+pacemaker是最佳组合。

1.2 Keepalived + nginx

keepalived可以认为是VRRP协议在Linux上的实现,主要有三个模块,分别是core、check和vrrp。core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析。check负责健康检查,包括常见的各种检查方式。vrrp模块是来实现VRRP协议的。本文基于如下的拓扑图:

                   +-------------+

                   |    uplink   |

                   +-------------+

                          |

                          +

MASTER        keep|alived         BACKUP

172.29.88.224   172.29.88.222    172.29.88.225

+-------------+    +-------------+    +-------------+

| nginx01  |----|  virtualIP  |----| nginx02 |

+-------------+    +-------------+    +-------------+

                               |

       +------------------+------------------+

       |                       |                      |

+-------------+    +-------------+    +-------------+

  | web01  |         |  web02 |         |  web03 |

+-------------+    +-------------+    +-------------+

2. keepalived实现nginx高可用

2.1安装

直接通过yum方式安装最简单:

# yum install -y keepalived

# keepalived -v

2.2 nginx监控脚本

该脚本检测ngnix的运行状态,并在nginx进程不存在时尝试重新启动ngnix,如果启动失败则停止keepalived,准备让其它机器接管。

/etc/keepalived/check_nginx.sh:

#!/bin/bash

counter=$(ps -C nginx --no-heading|wc -l)

if [ "${counter}" = "0" ]; then

    /usr/local/bin/nginx

    sleep 2

    counter=$(ps -C nginx --no-heading|wc -l)

    if [ "${counter}" = "0" ]; then

        /etc/init.d/keepalived stop

    fi

fi

你也可以根据自己的业务需求,总结出在什么情形下关闭keepalived,如 curl 主页连续2个5s没有响应则切换:

#!/bin/bash

# curl -IL http://localhost/member/login.htm

# curl --data "memberName=fengkan&password=22" http://localhost/member/login.htm

count = 0

for (( k=0; k<2; k++ ))

do

    check_code=$( curl --connect-timeout 3 -sL -w "%{http_code}\\n" http://localhost/login.html -o /dev/null )

    if [ "$check_code" != "200" ]; then

        count = count +1

        continue

    else

        count = 0

        break

    fi

done

if [ "$count" != "0" ]; then

#   /etc/init.d/keepalived stop

    exit 1

else

    exit 0

fi

2.3 keepalived.conf

! Configuration File for keepalived

global_defs {

    notification_email {

        zhouxiao@example.com

        itsection@example.com

    }

    notification_email_from itsection@example.com

    smtp_server mail.example.com

    smtp_connect_timeout 30

    router_id LVS_DEVEL

}

vrrp_script chk_nginx {

#    script "killall -0 nginx"

    script "/etc/keepalived/check_nginx.sh"

    interval 2

    weight -5

    fall 3  

    rise 2

}

vrrp_instance VI_1 {

    state MASTER

    interface eth0

    mcast_src_ip 172.29.88.224

    virtual_router_id 51

    priority 101

    advert_int 2

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        172.29.88.222

    }

    track_script {

       chk_nginx

    }

}

在其它备机BACKUP上,只需要改变 state MASTER -> state BACKUP,priority 101 -> priority 100,mcast_src_ip 172.29.88.224 -> mcast_src_ip 172.29.88.225即可。

service keepalived restart

2.4配置选项说明

global_defs

notification_email: keepalived在发生诸如切换操作时需要发送email通知地址,后面的 smtp_server 相比也都知道是邮件服务器地址。也可以通过其它方式报警,毕竟邮件不是实时通知的。

router_id: 机器标识,通常可设为hostname。故障发生时,邮件通知会用到

vrrp_instance

state: 指定instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这里指定的,但这里指定的不算,还是得要通过竞选通过优先级来确定。如果这里设置为MASTER,但如若他的优先级不及另外一台,那么这台在发送通告时,会发送自己的优先级,另外一台发现优先级不如自己的高,那么他会就回抢占为MASTER

interface: 实例绑定的网卡,因为在配置虚拟IP的时候必须是在已有的网卡上添加的

mcast_src_ip: 发送多播数据包时的源IP地址,这里注意了,这里实际上就是在那个地址上发送VRRP通告,这个非常重要,一定要选择稳定的网卡端口来发送,这里相当于heartbeat的心跳端口,如果没有设置那么就用默认的绑定的网卡的IP,也就是interface指定的IP地址

virtual_router_id: 这里设置VRID,这里非常重要,相同的VRID为一个组,他将决定多播的MAC地址

priority: 设置本节点的优先级,优先级高的为master

advert_int: 检查间隔,默认为1秒。这就是VRRP的定时器,MASTER每隔这样一个时间间隔,就会发送一个advertisement报文以通知组内其他路由器自己工作正常

authentication: 定义认证方式和密码,主从必须一样

virtual_ipaddress: 这里设置的就是VIP,也就是虚拟IP地址,他随着state的变化而增加删除,当state为master的时候就添加,当state为backup的时候删除,这里主要是有优先级来决定的,和state设置的值没有多大关系,这里可以设置多个IP地址

track_script: 引用VRRP脚本,即在 vrrp_script 部分指定的名字。定期运行它们来改变优先级,并最终引发主备切换。

vrrp_script

告诉keepalived在什么情况下切换,所以尤为重要。可以有多个 vrrp_script

script: 自己写的检测脚本。也可以是一行命令如killall -0 nginx

interval 2: 每2s检测一次

weight -5: 检测失败(脚本返回非0)则优先级 -5

fall 2: 检测连续 2 次失败才算确定是真失败。会用weight减少优先级(1-255之间)

rise 1: 检测 1 次成功就算成功。但不修改优先级

这里要提示一下script一般有2种写法:

通过脚本执行的返回结果,改变优先级,keepalived继续发送通告消息,backup比较优先级再决定

脚本里面检测到异常,直接关闭keepalived进程,backup机器接收不到advertisement会抢占IP

上文vrrp_script配置部分,killall -0 nginx属于第1种情况,/etc/keepalived/check_nginx.sh属于第2种情况(脚本中关闭keepalived)。个人更倾向于通过shell脚本判断,但有异常时exit 1,正常退出exit 0,然后keepalived根据动态调整的 vrrp_instance 优先级选举决定是否抢占VIP:

如果脚本执行结果为0,并且weight配置的值大于0,则优先级相应的增加

如果脚本执行结果非0,并且weight配置的值小于0,则优先级相应的减少

其他情况,原本配置的优先级不变,即配置文件中priority对应的值。

提示:

优先级不会不断的提高或者降低

可以编写多个检测脚本并为每个检测脚本设置不同的weight(在配置中列出就行)

不管提高优先级还是降低优先级,最终优先级的范围是在[1,254],不会出现优先级小于等于0或者优先级大于等于255的情况

在MASTER节点的 vrrp_instance 中 配置 nopreempt ,当它异常恢复后,即使它 prio 更高也不会抢占,这样可以避免正常情况下做无谓的切换

以上可以做到利用脚本检测业务进程的状态,并动态调整优先级从而实现主备切换。

配置结束

在默认的keepalive.conf里面还有 virtual_server,real_server 这样的配置,我们这用不到,它是为lvs准备的。 notify 可以定义在切换成MASTER或BACKUP时执行的脚本,如有需求请自行google。

notify

2.5 nginx配置

当然nginx没有什么可配置的,因为它与keepalived并没有联系。但记住,2台nginx服务器上的配置应该是完全一样的(rsync同步),这样才能做到对用户透明,nginx.conf 里面的 server_name 尽量使用域名来代替,然后dns解析这个域名到虚拟IP 172.29.88.222。

更多关于nginx内容配置请参考 这里 。

3.测试

根据上面的配置,初始化状态:172.29.88.224 (itoatest1,MASTER,101),172.29.88.222(itoatest2,BACKUP,100),nginx和keepalived都启动,虚拟IP 172.29.88.222 在 itoatest1 上:

#使用ip命令配置的地址,ifconfig查看不了

[root@itoatest1 nginx-1.6]# ip a|grep eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    inet 172.29.88.224/24 brd 172.29.88.255 scope global eth0

    inet 172.29.88.222/32 scope global eth0

浏览器访问172.29.88.222或域名,OK。

直接关闭itoatest1上的nginx:/usr/local/nginx-1.6/sbin/nginx -s stop:

[root@localhost keepalived]# ip a|grep eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    inet 172.29.88.224/24 brd 172.29.88.255 scope global eth0

vip消失,漂移到 itoatest2:

nginx-keepalived-vip.png

同时可以看到两台服务器上/var/log/messages:

1

## itoatest1

Jun  5 16:44:01 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

Jun  5 16:44:06 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

Jun  5 16:44:46 itoatest1 Keepalived_vrrp[44875]: VRRP_Script(chk_nginx) failed

Jun  5 16:44:48 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Received higher prio advert

Jun  5 16:44:48 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Entering BACKUP STATE

Jun  5 16:44:48 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) removing protocol VIPs.

Jun  5 16:44:48 itoatest1 Keepalived_healthcheckers[44874]: Netlink reflector reports IP 172.29.88.222 removed

## itoatest2

Jun  5 16:44:00 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Transition to MASTER STATE

Jun  5 16:44:00 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Received higher prio advert

Jun  5 16:44:00 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Entering BACKUP STATE

Jun  5 16:44:48 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) forcing a new MASTER election

Jun  5 16:44:48 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) forcing a new MASTER election

Jun  5 16:44:49 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Transition to MASTER STATE

Jun  5 16:44:50 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Entering MASTER STATE

Jun  5 16:44:50 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) setting protocol VIPs.

Jun  5 16:44:50 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

Jun  5 16:44:50 itoatest2 Keepalived_healthcheckers[35554]: Netlink reflector reports IP 172.29.88.222 added

Jun  5 16:44:55 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

你也可以通过在两台服务器上抓包来查看优先级priority的变化:

1

## itoatest1上

##直接输出,或后加 -w itoatest-kl.cap存入文件用wireshark查看

# tcpdump -vvv -n -i eth0 dst 224.0.0.18 and src 172.29.88.224

源自:https://blog.csdn.net/hechurui/article/details/51065467

2、实现keepalived主主模型

修改配置文件

[root@proxy1 ~]# vim /etc/keepalived/keepalived.conf

! Configuration File for keepalived

global_defs {

notification_email {

root@localhost

}

notification_email_from keepalived@localhost

smtp_server 127.0.0.1

smtp_connect_timeout 30

router_id proxy1

vrrp_mcast_group4 224.1.1.1

}

vrrp_instance VI_1 {

state MASTER

interface ens33

virtual_router_id 66

priority 100

advert_int 1

authentication {

auth_type PASS

auth_pass 123456

}

virtual_ipaddress {

172.18.101.100/16

}

}

vrrp_instance VI_2 {

state BACKUP

interface ens33

virtual_router_id 88

priority 80

advert_int 1

authentication {

auth_type PASS

auth_pass 654321

}

virtual_ipaddress {

172.18.101.200/16

}

}

[root@proxy2 ~]# vim /etc/keepalived/keepalived.conf

! Configuration File for keepalived

global_defs {

notification_email {

root@localhost

}

notification_email_from keepalived@localhost

smtp_server 127.0.0.1

smtp_connect_timeout 30

router_id proxy2

vrrp_mcast_group4 224.1.1.1

}

vrrp_instance VI_1 {

state BACKUP

interface ens33

virtual_router_id 66

priority 80

advert_int 1

authentication {

auth_type PASS

auth_pass 123456

}

virtual_ipaddress {

172.18.101.100/16

}

}

vrrp_instance VI_2 {

state MASTER

interface ens33

virtual_router_id 88

priority 90

advert_int 1

authentication {

auth_type PASS

auth_pass 654321

}

virtual_ipaddress {

172.18.101.200/16

}

}

启动服务

[root@proxy1 ~]# systemctl start keepalived

[root@proxy2 ~]# systemctl start keepalived

查看绑定的地址

[root@proxy1 ~]# ip a

2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

link/ether 00:0c:29:97:37:50 brd ff:ff:ff:ff:ff:ff

inet 172.18.101.101/16 brd 172.18.255.255 scope global ens33

valid_lft forever preferred_lft forever

inet 172.18.101.100/16 scope global ens33

valid_lft forever preferred_lft forever

inet6 fe80::e23e:b5ac:1372:e2c9/64 scope link

valid_lft forever preferred_lft forever

[root@proxy2 ~]# ip a

2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

link/ether 00:0c:29:19:6e:40 brd ff:ff:ff:ff:ff:ff

inet 172.18.101.104/16 brd 172.18.255.255 scope global ens33

valid_lft forever preferred_lft forever

inet 172.18.101.200/16 scope global ens33

valid_lft forever preferred_lft forever

inet6 fe80::a9dc:91cc:e2f3:6d34/64 scope link

valid_lft forever preferred_lft forever

如果坏掉一台服务器,另一台机器应该接管两个地址

[root@proxy1 ~]# systemctl stop keepalived

[root@proxy2 ~]# ip a

2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

link/ether 00:0c:29:19:6e:40 brd ff:ff:ff:ff:ff:ff

inet 172.18.101.104/16 brd 172.18.255.255 scope global ens33

valid_lft forever preferred_lft forever

inet 172.18.101.200/16 scope global ens33

valid_lft forever preferred_lft forever

inet 172.18.101.100/16 scope global ens33

valid_lft forever preferred_lft forever

inet6 fe80::a9dc:91cc:e2f3:6d34/64 scope link

valid_lft forever preferred_lft forever

服务器修复后,会重新接管自己的地址

这就是主主模型

3、采用varnish为ngin实现缓存加速

实验目的:

varnish利用实现对后端单双静态web服务器的缓存

1.安装varnish

Yum install varnish

2. 配置varnish

在/etc/varnish目录下(yum安装默认路径)的varnish.params文件中修改VARNISH_VCL_CONF=/etc/varnish/default.vcl,将vcl文件指向要使用的vcl文件,文件中其他内容则按需修改

补充:varnish参数说明

VARNISH_VCL_CONF=/etc/varnish/default.vcl              #vcl文件路径

VARNISH_LISTEN_PORT=80                                    #varnish自己工作于那个端口。默认是6081

VARNISH_ADMIN_LISTEN_ADDRESS=127.0.0.1      #管理接口

VARNISH_ADMIN_LISTEN_PORT=6082                    #管理接口监听端口

VARNISH_SECRET_FILE=/etc/varnish/secret                #密钥文件

VARNISH_MIN_THREADS=50                                    #最少空闲线程

VARNISH_MAX_THREADS=1000                                #最多启动线程

VARNISH_THREAD_TIMEOUT=120                            #work超时时长

#VARNISH_STORAGE_FILE=/var/lib/varnish/varnish_storage.bin        #存储文件

VARNISH_STORAGE_SIZE=64M                                                    #存储文件文件大小

#VARNISH_STORAGE="file,${VARNISH_STORAGE_FILE},${VARNISH_STORAGE_SIZE}"    #存储方式file

VARNISH_STORAGE="malloc,${VARNISH_STORAGE_SIZE}"    #基于内存方式

VARNISH_TTL=120

3.编写vcl文件

备份default.vcl,修改内容并保存

backend default {

    .host = "127.0.0.1";

    .port = "8080";

}

vcl_recv作为进入varnish对请求报文解码后第一个子例程,可以在此处做访问控制,是否查询缓存,以及无法识别的数据的判定。

首先对default.vcl文件复制一份重新改名为test1.vcl

acl purgers {                                        #定义一个acl(根据自己情况调整IP)

"127.0.0.1";

"192.168.229.0"/24;

}

sub vcl_recv {

if (req.url ~ "^/test.html$") {            #请求首部的url匹配到test.html,

return(pass);                      #跳过缓存

        }

    if

if (req.request != "GET" &&            #请求方法不是已知的这7中则发到pipe上去

      req.request != "HEAD" &&

      req.request != "PUT" &&

      req.request != "POST" &&

      req.request != "TRACE" &&

      req.request != "OPTIONS" &&

      req.request != "DELETE") {

      return (pipe);

      }

if (req.request != "GET" && req.request != "HEAD") {        #不是获取资源的全部跳过缓存,减少无用缓存查询

      return (pass);

    }

    if (req.request == "PURGE") {             

if (!client.ip ~ purgers) {         #请求IP不在ACL中定义,则发挥405错误页。

            error 405 "Method not allowed";

          }

        return (lookup);

    }

    return (lookup);

}

4.使vcl生效

确保varnish.params文件中VARNISH_VCL_CONF指向正确的vcl文件

启动varnish(systemclt)

使用varnish管理工具varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082(管理端口已在前面定义)

5. 测试

为了显示效果我们来配置一下deliver段,给客户端返回时候匹配到缓存信息,以便我我们来查看实验结果。

sub vcl_deliver {

if (obj.hits > 0) {                                                                        #判断条件缓存匹配次数大于0

set resp.http.X-Cache = "HIT via" + " " + server.hostname;    #添加HIT via

        } else {

set resp.http.X-Cache = "MISS via" + " " + server.hostname;  #没有匹配到则添加MISS via

        }

}

访问缓存页面,第一次miss后后面都变为hit

4、LNMP结合varnish实现动静分离

在vcl_recv中加入动静页面筛选条件:

if ( ~ "(?i)\.php$") {  #将.php结尾的文件发往动态服务器

    set _hint = 动态服务器;  

} else {

     set _hint = 静态服务器;  #将其他结尾的文件发往静态服务器

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容