数据库 - yingziaiai/SetupEnv GitHub Wiki
读写效率高,大数据量,安全性
关系型数据库的事务,ACID, 隔离级,脏读,幻读。。。
http://www.cnblogs.com/Alandre/p/5545801.html
所谓事务,它是一个操作序列,这些操作要么都执行,要么都不执行,它是一个不可分割的工作单位。
http://blog.csdn.net/shuaihj/article/details/14163713
http://www.cnblogs.com/dmhp/p/Amand_____.html
其实学习一门技术:不仅仅是要会用,比如说学习缓存,不仅要知道缓存怎么使用,并且要分析缓存使用过程中的制约参数,以达到缓存设计的初衷,如更新,颗粒度等对一个系统稳定性是非常重要的,缓存大小的设置。。。
具体应用中的难点,参数调优等,结合产品形态,数据性质,互联网评价参数PV,UV等,实施落地研究,比如数据迁移,热备份,冷备份的选择等等。
http://vb2005xu.iteye.com/blog/2228699 实际应用中考虑的问题: web产于基于数据,那么处理方式也应该基于数据,你有没有分析过你的产品形态是什么,数据性质是什么?最近针对我们的文章数据进行了一些统计(相信具有一定代表性),PV百万的用户不到很少(相对于总注册用户来说).但是总pv占了64%.文章大概11G的存储空间.解释下:我们一半的webserver在为很少一部分人服务,但是他们占的流量却能吓死人,但是他们的文章才11G,我相信大部分人明白了,假如我对于这些用户的数据进行剥离,重点为他们服务,那我相信性能和容量成本将进一步降低. 这就是所谓的冷热数据分离,很明显将热数据剥离出去,核心保证其的性能,而相对来说冷数据访问量少,服务等级减低,也可以想象能节省多少的容量.假如我将这些数据放入到内存,那么性能会提升多少呢. 冷热数据的拆分没有很多难度和技巧,但是仔细分析下还是有很多事情需要去做,毕竟做事情的目的是保证结果是合理和有效的.性能和维护性是要平衡的. (1)有没有想过这些pv高的人是什么样的人,他的文章更新频率是什么样的. (2)对于热数据需要分库分表吗,怎么分才合理,是否会影响query cache,对于活跃数据来说,需要多少个辅库来支撑千万级的访问,对于这些访问和数据特性来说,支持大并发的瓶颈在哪儿(磁盘I/O,CPU?) (3)冷热数据迁移策略和如何区分冷热数据,这样的拆分可能需要手动的,以及未来是否需要自动拆分 (4)一涉及到冷热数据的分离,就可能去要区分用户,那么数据的serverid如何设计,是否会成为瓶颈 (5)是否能够明确DB是制约性能的核心问题?实施后是否有提升?提升了多少. (6)我们是按照pv来区分冷热数据的,再基于具有一级页面缓存的基础上,区分冷热数据的分析方法是否合理. 这些用户的访问对于实际后端的访问频率是多少? (7)对于活跃数据我们是否需要建立脱离于DB的二级缓存,或者对于活跃数据是否通过SSD这样的设计进行硬件提升 (8)很实际的一个问题,冷数据的数据量还是非常庞大的,只是他们的访问量少了一点,那么如何优化这些用户的访问呢,二级缓存?是否涉及到归档数据的设计,它解决的问题是什么. (9)如何有效提升DB的query cache.
关于冷备份与热备份的对比--http://www.cnblogs.com/elegantok/archive/2009/03/31/1426283.html