Architectures des ordinateurs : Une approche quantitative PDF

Un article architectures des ordinateurs : Une approche quantitative PDF Wikipédia, l’encyclopédie libre. De nouveaux ordres de grandeur concernent la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données.


Cet ouvrage, considéré comme essentiel pour les étudiants et les concepteurs d’ordinateurs depuis plus de dix ans, a été mis à jour afin de refléter l’évolution de l’informatique moderne. Dans cette édition, les auteurs appliquent leur méthode d’analyse quantitative non seulement à la conception d’ordinateurs de bureau haute performance, mais également aux systèmes enfouis et aux serveurs. Leur réflexion est illustrée par des exemples tirés de différents domaines, des produits électroniques grand public (téléphonie mobile, multimédia, etc.) jusqu’aux machines haut de gamme. Hennessy et Patterson mettent l’accent sur les techniques fondamentales de conception de machines réelles et de maximisation de leur ratio coût/performance. Toute personne impliquée dans la réalisation d’ordinateurs bénéficiera de l’expertise offerte dans cette nouvelle édition
De nombreux exemples d’architecture moderne sont exposés : les processeurs Pentium III, Pentium 4 et UItraSPARC III ; l’architecture IA-64 et sa première implémentation, l’Itanium ; la console de jeu Sony PlayStation 2 ; le processeur multimédia TriMedia TM32 ; le cluster du moteur de recherche Google. Des analyses détaillées couvrent des problématiques actuelles : multithreading, parallélisme d’instructions, architectures VLIW, hiérarchie de mémoire, technologies de stockage et réseau

Le big data a une histoire récente et pour partie cachée, en tant qu’outil des technologies de l’information et comme espace virtuel prenant une importance volumique croissante dans le cyberespace. 1944-2012, sa naissance est liée aux progrès des systèmes de stockage, de fouille et d’analyse de l’information numérisée, qui ont permis une sorte de big bang de l’information stockée puis une croissance inflationniste de l’univers de la donnée numérisée. Orwell à la fin de la dernière guerre mondiale, puis souvent par la science fiction. Elles portent sur des données quantitatives complexes à l’aide de méthodes de calcul distribué et de statistiques. 2,8 zettaoctets en 2012 et s’élèveront à 40 zettaoctets en 2020. De nombreux projets de dimension pharaonique sont en cours.

Le volume des big data met les centres de données face à un réel défi : la variété des données. Et les analyses sont d’autant plus complexes qu’elles portent de plus en plus sur les liens entre des données de natures différentes. Les bases de données relationnelles classiques ne permettent pas de gérer les volumes de données du big data. De nouveaux modèles de représentation permettent de garantir les performances sur les volumétries en jeu. Pour répondre aux problématiques big data, l’architecture de stockage des systèmes doit être repensée et les modèles de stockage se multiplient en conséquence. Le stockage local est préféré au stockage SAN et NAS pour des raisons de goulots d’étranglement au niveau du réseau et des interfaces réseaux des SAN. Les données sont sauvegardées là où elles peuvent être traitées.

Le big data en est issu et il alimente une partie de la recherche. Les outils d’analyse du big data pourraient affiner l’exploitation de ces données. 2000, il a amassé en quelques semaines plus de données que toutes celles précédemment collectées dans l’histoire de l’astronomie. Le big data s’est aussi introduit dans le domaine des protéines. Les sciences sociales explorent des corpus aussi variés que le contenu de Wikipédia dans le monde ou les millions de publications et de tweets sur Internet.