" Pour qu’il y ait communication, il faut que le destinataire ignore ce qui va lui être transmis. Shannon nomme information la levée de cette incertitude, opérée par la réception d’un message. L’information est donc proportionnelle à la quantité de surprise que ce message contient : moins le destinataire est capable d’anticiper ce qu’il va recevoir, plus l’incertitude dissipée sera grande. La quantité d’information par message étant maximale quand la source est aléatoire. L’information, au sens de Shannon, n’est que cela."
« En 1995 l’ensemble des pages web tenait dans deux armoires de serveurs. Certaines sociétés, comme celle qui éditaient des moteurs de recherche, possédaient une copie de l’intégralité du web. »