L'enterrement d'Unix n'est pas pour demain...
Les dernières études publiées par Gartner et IDC ont confirmé une tendance déjà perceptible au cours des dernières années : le marché des serveurs Unix recule peu à peu au profit des serveurs x86 sous Linux et Windows. Si l'on s'en tient aux chiffres d'IDC, les ventes de serveurs Unix ont atteint 4 Md$ au premier trimestre contre 4, 8 Md$ pour les serveurs Windows et 1,6 Md$ pour les serveurs Linux. Certains voient dans ces chiffres le signe du début de la fin pour Unix. C'est peut-être aller vite en besogne.
Tout d'abord, si les ventes de serveurs Unix s'effritent, c'est certes parce que les serveurs x86 gagnent du terrain en entrée de gamme, mais aussi parce qu'elles ont été touchées plus tôt que les autres par les phénomènes de consolidation et de virtualisation. Près de 40% des serveurs Unix utiliseraient aujourd'hui des techniques de virtualisation, contre moins de 5 % pour les serveurs x86. Si l'adoption de la virtualisation se poursuit au rythme actuel sur les serveurs x86, les ventes de ces machines pourraient elles aussi commencer à reculer, et les vendeurs de serveurs x86 déchanter.
Une autre raison de la résistance probable des serveurs Unix est qu'ils sont solidement retranchés dans les datacenters, où ils supportent les applications les plus critiques des entreprises comme les ERP, les bases de données, les grandes applications de DataWarehouse et de datamining. Et pour ces applications critiques, les directions informatiques détestent le changement. Comme les Mainframe, les serveurs Unix ont donc toutes les chances de se maintenir durablement au cœur des grands datacenter, du moins s'ils savent évoluer et s'adapter. Et justement, l'innovation reste une carte maîtresse de ces plates-formes.
En lançant son Power 6, IBM offre des performances doubles de celle des premiers Power 5 dans une enveloppe de consommation similaire. Et Big Blue ne se contente pas d'innover sur le matériel : AIX 6.1 la nouvelle mouture de son Unix saura, par exemple, déplacer une charge de travail d'un serveur à un autre de façon transparente sans arrêt de l'application. D'ici l'automne, Big Blue proposera aussi pAVE, un environnement de compatibilité basé sur la technologie de Transitive, qui permettra aux applications Linux x86 de fonctionner sans recompilation sur ses serveurs Power (L'ironie est qu'Apple utilise cette technologie en sens inverse dans Mac OS X pour assurer la compatibilité des vieilles applications PowerPC sur ses machines Intel).
Un autre spécialiste des serveurs Unix, Sun, fait lui aussi montre d'une impressionnante capacité d'innovation. Bien avant Intel et AMD, la firme a ouvert la voie des puces massivement multithreadées avec sa gamme Niagara et elle compte étendre ses efforts à ses systèmes SMP avec la future gamme Rock. Désormais Open Source, Solaris connaît quant à lui un regain d'intérêt sans précédent. Enfin, même si Itanium n'a sans doute pas tenu toutes ses promesses, HP dispose avec ses serveurs Integrity et son OS HP-UX 11v3, d'une plate-forme respectée et performante, qui devrait encore progresser en 2007 et en 2008. Autant dire que l'enterrement d'Unix n'est pas pour demain…
juin 6, 2007 dans Actualité, Serveurs | Permalink | Commentaires (0) | TrackBack
Virtualisation : Microsoft Viridian de plus en plus virtuel...
Depuis près de 18 mois, Microsoft n'a cessé d'élever la barre pour son environnement de virtualisation allant jusqu'à promettre récemment le support de 64 coeurs processeur et l'ajout à chaud de ressources. Le mois dernier, déjà, Microsoft a dû admettre, qu'il ne pourrait tenir ses délais et a repoussé la disponibilité de la version bêta du futur hyperviseur de Windows LongHorn, Viridian. Hier, l'éditeur de Redmond a fini par concéder, qu'il ne pourrait sortir son logiciel sans revoir considérablement à la baisse ses capacités.
Exit donc l'ajout à chaud de ressources physiques (CPU, mémoire et I/O). Exit la promesse de supporter jusqu'à 64 coeurs : Les utilisateurs devront se contenter de 16 coeurs (ce qui n'est déjà pas si mal). Plus grave, en revanche, Viridian ne permettra pas la migration à la volée de machines virtuelles d'un serveur à un autre, une fonction déjà supportée par VMWare avec VMotion et que Xen suporte aussi avec les outils d'administration adaptés. Adieu datacenters dynamiques, bonjour datacenters statiques...
Si l'on résume, Microsoft ne disposera d'aucune alternative à l'hyperviseur de VMWare et aux hyperviseurs libres avant le second semestre 2008. A cette date, il aura plus de deux ans de retard technologique sur ses concurrents, et il faudra sans doute attendre la mi-2009 pour que Viridian soit au niveau actuel des produits actuels de VMWare et des distributions Linux, qui auront sans doute évolué d'ici là. Ce sont les futurs actionnaires de VMware qui vont être contents...
En savoir plus :
Le blog de la division serveur de Microsoft
mai 11, 2007 dans Actualité, Serveurs, Virtualisation | Permalink | Commentaires (1) | TrackBack
Sun prépare une refonte de ses serveurs NAS
On le pressentait depuis quelques mois, Sun devrait largement refondre son offre de serveurs NAS pour tirer parti des capacités de son OS Solaris (support d'iSCSI, système de fichier avancé ZFS) et de certains de ses systèmes, notamment le Sun Fire 4500 ("Thumper"). Lors d'une interview accordée au Monde Informatique dans ses locaux de Menlo Park, en Californie, John Fowler le patron des serveurs de la marque a confirmé que sa division avait hérité de la responsabilité des serveurs NAS de Sun.
L'idée est de s'appuyer sur les serveurs banalisés de la marque et de les équiper d'une version de Solaris complété par une interface d'administration graphique dédiée au fonctions de stockage, à l'instar de ce que propose Microsoft avec Windows Storage Server. Selon Fowler, de nouveaux NAS devraient faire leur apparition dans un avenir proche. Ils s'appuieront sur l'actuel Sun Fire 4500 mais aussi sur une déclinaison allégée et une déclinaison plus musclée du serveur (le Sun Fire 4500 "Thumper" dispose de 48 disques S-ATA). Ils devraient aussi embarquer des capacités d'I/O renforcées, peut-être via l'utilisation du contrôleur Ethernet "Netpune", conçu par la division microélectronique de Sun dans le cadre du développement des puces Niagara 2.
Une interface d'administration orientée stockage pour Solaris
Mais la nouveauté la plus intéressante devrait être l'utilisation d'une version embarquée de Solaris. Sun a beaucoup travaillé sur les fondations de l'OS pour en faire une plate-forme adaptée au stockage. La marque entend notamment s'appuyer sur les fonctions avancées de son système de gestion de fichier 128 bit ZFS (support du Raid 5 et du Raid 6, compression intégrée, gestion avancée de méta-données, snapshots illimités...), sur le support intégré d'SCSI (en mode initiateur et en mode cible),mais aussi sur une nouvelle interface d'administration graphique en cours de développement. Jusqu'alors les fonctions de stockage de Solaris n'étaient administrables que depuis la ligne de commande.
Cette approche devrait permettre à Sun de proposer des systèmes NAS à des tarifs défiant toute concurrence, tout en dopant ses ventes de serveurs. Les futurs serveurs NAS ne seront en effet que des versions optimisées et personnalisées des serveurs Opteron de la marque...
mai 11, 2007 dans Actualité, Serveurs, Stockage | Permalink | Commentaires (0) | TrackBack
Virtualize World Peace
Microsoft a parfois de curieux slogans. A VMWorld 2006, la conférence utilisateurs VMware, qui se déroule actuellement à Los Angeles, Microsoft dispose d'un stand bien visible aux couleurs du Flower Power et professant la paix dans le monde de la virtualisation avec un slogan avenant : Virtualize World Peace. Le géant de Redmond distribue joyeusement des T-shirts affichant le slogan, des T-Shirts qui curieusement rencontrent une grande popularité auprès des utilisateurs présents mais aussi des salariés de VMware.
La plus roublarde des réalisations de Microsoft n'est toutefois pas cet affichage d'ouverture chez son principal concurrent. Le géant de Redmond a en effet réussi a insérer un DVD contenant la dernière mouture de LongHorn Server ainsi que la dernière mouture de son outil de virtualisation, Virtual Server 2003 R2, dans chacun des sacs distribués aux participants de la conférence. Ironiquement, VMware n'a pas profité de sa propre conférence pour faire de même, ce qui fait que chaque conférencier rentrera chez lui avec pour seul DVD celui de Microsoft.
Certains y verront sans doute un modèle de parasitisme ou le côté trop candide de VMware (à ceci près que la distribution des DVD a quand même du coûter un certain prix à Microsoft...). La vérité est que Microsoft, comme à l'époque de sa bataille avec Netscape, n'a pas l'intention d'abandonner le terrain de la virtualisation à VMware.
La conférence TechEd IT Forum de Barcelone, à laquelle je serai la semaine prochaine, devrait sans doute permettre d'en savoir plus sur l'Etat de l'offre de virtualisation de Microsoft et sur le chemin qu'il lui reste à parcourir pour disposer d'un hyperviseur fonctionnel, mais aussi d'une suite d'outils d'administration capable de rivaliser avec les outils de VMWare. Pour l'instant, le géant est regardé avec condescendance par VMware, y compris au plus au niveau -Diane Greene, la CEO de VMware estime ainsi avoir "des années d'avance"-. La présence lors de son keynote de Marc Andreesen, devrait pourtant l'inciter à plus de prudence. Microsoft n'a pas pour habitude d'abandonner un combat entammé, même s'il est en position de challenger. Novell, Corel, Netscape, Symbian et Sony, dans des secteurs divers, peuvent en témoigner. Un ancien premier ministre français le disait : "la pente est raide, mais la route est droite". Sur le secteur de la virtualisation, l'aphorisme colle plutôt bien à Microsoft. Virtualize World Peace pourrait rapidement devenir Virtualize World War...
novembre 8, 2006 dans Actualité, Serveurs, Virtualisation | Permalink | Commentaires (0) | TrackBack
Red Hat "Unfakable Linux" = très cher Linux...
Rien ne vaut l'original. C'est en substance la réponse adressée à Oracle par Red Hat après l'annonce par le premier d'une offre de support à prix cassé de la distribution Linux du second, la semaine dernière, lors d'Oracle OpenWorld. A l'Unbreakable Linux (Linux incassable) d'Oracle, Red Hat riposte par sa propre campagne de communication, "Unfakeable Linux" (littéralement, "Un Linux que l'on ne peut plagier ou Linux incopiable")
Risques d'incompatibilités…
Attaqué au portefeuille par Oracle, Red Hat accuse explicitement son concurrent (et partenaire) de créer une nouvelle branche à partir du code de sa distribution Linux, un "fork" en langage Open-source, et de mettre en péril la compatibilité tant au niveau binaire qu'au niveau du jeu d'API. Ce faisant, explique Red Hat, Oracle prend le risque de mettre en péril le bon fonctionnement des applications certifiées pour Red Hat Linux.
On verserait volontiers quelques larmes de crocodile sur la défense de Red Hat, mais elle fait peu de sens en tout cas techniquement. Tout d'abord parce qu'il n'y a guère de secrets dans sa distribution Linux. L'éditeur affiche fièrement son strict respect de la GPL et Oracle peut dont impunément cannibaliser l'intégralité de son code pour sa propre distribution. Ce ne sont pas la suppression de quelques mentions de trademarks et de quelques logos Red Hat qui risquent de mettre en péril la compatibilité des applications. L'environnement de compilation est lui aussi largement un non problème. Il y a fort à parier qu'Oracle a une idée très précise de l'environnement de compilation de Red Hat et qu'il l'a répliqué pour générer ses propres binaires…
Le support de Linux reste coûteux
Plutôt que d'accuser Oracle de "plagier" son Linux, on aurait sans doute aimé que Red Hat riposte par le haut à l'éditeur de SGBD. C'est un secret de polichinelle que les prix facturés par Red Hat et par la plupart des autres distributeurs Linux pour leur support sont exorbitants et qu'ils sont aussi, sans doute, un obstacle à une plus large distribution de Linux dans certaines entreprises. Il suffit à ce propos de regarder les tarifs facturés par d'autres éditeurs pour le support de leur Unix pour s'en rendre compte. Sun facture par exemple 720 $ par an pour son support premium Solaris pour un serveur à 2 CPU (1440 $ pour un quadri-sockets) contre 2499 $ pour Red Hat pour Red Hat Entreprise Linux AS. En alignant ses prix sur des tarifs plus habituels Oracle n'a fait que pointer cette douloureuse réalité.
Pour autant, Oracle n'est sans doute pas une menace immédiate pour Red Hat. Dans un premier temps, son offre ne devrait séduire que certains clients base de données et serveur d'applications attirés par la perspective d'un support unique pour l'ensemble de leur pile technologique. Mais si Oracle arrive à faire la preuve que son support est au pire au niveau de Red Hat, voire supérieur, et que se vérifie la pleine compatibilité de son offre avec celle de Red Hat, alors les dégâts pourraient rapidement s'étendre pour l'éditeur Linux. Plutôt que de répandre la peur et le doute sur le support d'Oracle, On aurait donc aimé voir Red Hat dépenser ses dollars dans le renforcement de la qualité de son support et réfléchir à une refonte de ses prix. A la baisse…
octobre 30, 2006 dans Actualité, Serveurs | Permalink | Commentaires (1) | TrackBack
Dell et AMD : 7 ans de discussions
Je suis actuellement à San Francisco pour Oracle OpenWorld, où Dell vient de présenter ses premiers serveurs à base de puces Opteron d'AMD, les Dell PowerEdge 6950, un serveur quadri-socket Opteron 8000, et Dell PowerEdge 1435SC, un bi-socket Opteron 2000. Rien de révolutionnaire à l'horizon par rapport aux serveurs disponibles actuellement sur le marché, sinon que pour Dell, ces machines sont moins chères que les machines Intel équivalentes.
Malgré cette adoption de l'Opteron ou peut être du fait de son ralliement tardif, le sujet de la collaboration avec AMD reste un sujet qui chez Dell. Depuis 5 ans, chaque évocation d'AMD se concluait par une réponse bateau du type: "nous n'avons de demande des clients", "nous voyons un avantage à l'unicité de notre plate-forme", "nous continuons à discuter avec AMD"...
Profitant de la présence du patron du marketing des Power Edge et du CTO de Dell, un collègue de ZDNet US a cherchait à savoir pourquoi Dell avait mis autant de tant à adopter les puces AMD. Il s'est vu répondre que les discussions duraient depuis 7 ans et que Dell avait attendu d'être sûr qu'AMD pouvait livrer les quantités dont il a besoin et qu'il pouvait assurer une stabilité de sa plate-forme. L'argument pourrait paraître sensé si ses concurrents tels qu'HP, IBM, Sun et Fujitsu étaient beaucoup plus petits ou moins exigeants. Ce n'est bien sûr pas le cas.
On peut donc légitimement se demander pourquoi Dell a pris deux ans de plus que tous le monde pour reconnaître ce que toute l'industrie savait déjà. Dell serait-il plus prudent que ses concurrents, plus couard, peu réactif à l'évolution du marché ou aurait-il cédé plus longtemps que ses concurrents aux pressions "amicales" de son principal allié et fournisseur, Intel. En pointant du doigt le fait que l'avantage d'AMD sur Intel n'a jamais été aussi grand qu'en 2004 et que Dell se rallie à l'Opteron au moment où Intel semble combler son retard, j'ai donc demandé à Dell, ce qui avait changé en deux ans pour que le constructeur revoit sa position. Réponse brutale : nous avons déjà répondu à cette question précédemment. Fermez le ban...
Résumons-nous : Dell discute depuis 7 ans avec AMD, mais il faut croire qu'il ne sait pas écouter : Son ralliement se fait alors que l'avantage technologique de l'Opteron sur les Xeon s'est considérablement réduit et que la croissance d'AMD ralentit. En difficulté, c'est vraisemblablement parce que ses principaux concurrents ont utilisé l'Opteron pour lui tailler des croupières sur quelques segments lucratifs, notamment celui des serveurs 4 sockets, que Dell ajoute l'Opteron à son portefeuille de produits. Il est vrai que près de 25% des ventes mondiales de serveurs x86 se font désormais sur des machines à base d'AMD et qu'il est devenait difficile pour le Texan d'ignorer un quart du marché. Autant dire que le principe de réalité a eu raison de la fidélité aveugle à Intel...
octobre 25, 2006 dans Serveurs | Permalink | Commentaires (4) | TrackBack
Pour réduire la consommation d'énergie exigez de meilleures alimentations
Récemment rencontré lors d'un événement Intel au Castelet (Intel est sponsor de l'écurie BMW), Will Swope, l'un des vice-présidents de la division Digital Enterprise d'Intel, a répondu de façon étonnamment franche, quoique iconoclaste, aux questions que lui posaient les journalistes sur la gestion d'énergie.
Questionné sur les travaux que mène Intel pour réduire encore un peu plus la consommation de ses puces, Swope a répondu de façon un peu iconoclaste que la consommation du processeur n'est qu'un des éléments à traiter pour parvenir à des PC et serveurs moins voraces en énergie et qu'elle n'est pas forcément le plus important.
"La plupart des alimentations électriques insérées dans les PC et serveurs ont un rendement de l'ordre de 50 à 60 % et donc gaspillent énormément d'énergie. Il suffirait de quelques dizaines de dollars de plus pour installer une alimentation de meilleure qualité et obtenir un rendement de 90% (...) La question intéressante à se poser est alors de savoir si les clients sont prêt à payer pour cette économie d'énergie (..) la réponse vous vous en doutez est dans la plupart des cas négative". Cette analyse rejoint celle de Urs Holzle, le directeur des opérations de Google, selon lequel près de 50% de l'énergie perdue dans un datacenter l'est du fait d'inefficacités simples à combattre. Holzle estime ainsi qu'un tiers de l'énergie qui passe dans une alimentation de serveurs est transformé en chaleur et crée des problèmes supplémentaires de refroidissement dans les datacenter. Pour résoudre le problème, Google installe dans ses serveurs des alimentations dont le rendement est de 90%.
Quelle leçon en tirer pour les utilisateurs? En fait, une leçon de simple bon sens. Alors que le serveur biprocesseur moyen coûte facilement 4000 à 5000€, le prix d'un bon multimètre est inférieur à 300 €. En plus, de l'habituel test de performance, mesurez donc la consommation en charge de vos serveurs avant de passer commande et sélectionnez celui qui offrira le meilleur rapport performance/prix en exploitation, coût énergétique et coût d'infrastructure (refroidissement et sécurité électrique) compris...
juin 30, 2006 dans Serveurs | Permalink | Commentaires (1) | TrackBack
Google change de chauffagiste
Après avoir longtemps fait appel à Intel pour chauffer ses datacenters, Google aurait pris la décision de standardiser l'ensemble de ses nouveaux achats sur les puces d'AMD. Dans un rapport pour ses clients, Mark Edelstone un analyste de Morgan Stanley indique ainsi que le moteur de recherche aurait décidé de basculer ses achats vers l'Opteron pour les mois à venir.
L'objectif principal de Google n'est pas de contribuer à la réduction du réchauffement terrestre (quoi que...), mais de doper les performances de son parc d'environ 200 000 serveurs, tout en réduisant de façon significative sa facture d'électricité et d'infrastructure. Au coût de chaque watt consommé vient en effet s'ajouter le prix de l'électricité dépensée pour le refroidir ainsi que le coût des installations nécessaires pour assurer la disponibilité du courant (par onduleur et groupe électrogène).
Rappelons qu'un Xeon bi-coeur "Paxville" consomme environ 135 W (hors consommation du contrôleur mémoire externe) quand un Opteron bi-coeur consomme 95 W (avec contrôleur mémoire intégré) ou 68 W pour la version basse consommation. Pire la technologie d'économie d'énergie d'AMD peut réduire la fréquence d'un Opteron à 800W en l'absence de charge, et donc restreindre sa consommation à 20W, quand le "Demand Based Switching d'Intel réduit la Fréquence d'un Xeon 3GHz ) 2GHz pour une consommation de 70 W...
Au total remplacer ses 200 000 serveurs Intel par des serveurs AMD (ce qui n'est pas au programme) pourrait faire économiser une grosse dizaine de millions de dollars par an en coûts d'exploitation à Google tout en lui permettant d'accroître significativement ses capacités de traitement. On comprend mieux pourquoi Intel travaille à une nouvelle génération de Xeon dont la consommation devrait être ramenée sous la barre des 100 W au second semestre...
mars 3, 2006 dans Serveurs | Permalink | Commentaires (0) | TrackBack
Et avec votre serveur lames, vous prendrez bien un climatiseur ?
Lors de la visite d'un grand centre informatique sécurisé la semaine passée, j'ai pu confirmer à quel point la mise en production des nouvelles architectures informatiques ultra-denses, telles que les serveurs lames sont un défi technologique en terme de refroidissement. Un Rack de serveurs lames rempli à son maximum, c'est pas loin de 30 KW de puissance consommée et bien entendu presque autant à prévoir pour refroidir l'ensemble. A titre d'indication, une cheminée à foyer fermée de taille moyenne fonctionnant à plein régime dissipe environ 9 à 10 KW, ce qui donne une petite idée du défi à relever pour refroidir un rack de serveurs lames.
En fait le centre que je visitais a été calibré pour accueillir les ordinateurs les plus exigeants tels que des grands serveurs Unix ou des mainframes. Il dispose de ses propres moyens de production d'eau froide et est climatisé avec des équipements industriels. Malgré cela, une salle hébergeant des serveurs lames affiche une température sensiblement supérieure à celle des salles équipées de grands serveurs Unix. La densité informatique est en fait telle dans les serveurs lames, que les constructeurs commencent à préconiser l'utilisation de solutions de refroidissement liquide pour leurs châssis. Après IBM et son IBM Rear Door Heat eXchanger , HP vient ainsi de franchir le pas et propose un nouveau rack réfrigéré pour ses serveurs lames, le HP Modular Cooling System . Liebert un des spécialiste de la climatisation des salles informatiques s'intéresse lui aussi au sujet avec son refroidisseur XD CoolFrame, qui vient s'enficher sur les châssis du spécialiste des lames egenera (dont un client OEM est Fujitsu Siemens).
Tous ces systèmes ont un coût (entre 5000 et 30000 €), qui vient grever celui des serveurs lames, d'où l'intérêt de bien dimensionner ses systèmes et de privilégier des processeurs dont la consommation reste raisonnable. Pour l'instant, AMD a une longueur d'avance sur Intel avec ses puces Opteron, mais le fondeur de Santa Clara devrait revenir au niveau de son concurrent au second semestre avec sa prochaine génération de puces Xeon. Reste que la densité des systèmes progressant, le problème thermique que posent les serveurs lames n'est pas près d'être résolu...
février 13, 2006 dans Serveurs | Permalink | Commentaires (1) | TrackBack
Bonne nouvelle, mauvaise nouvelle : HP certifie Solaris x86 sur ses serveurs
HP a officiellement annoncé la certification de ses serveurs lames et de plusieurs Serveurs Proliant à base de puces Opteron pour le système d'exploitation 64 bit de Sun (voir à ce propos la matrice de compatibilité des serveurs HP avec Solaris). HP assure également le support des pilotes développés spécifiquement pour l'OS de Sun sur ses machines. L'annonce place Solaris 10 x86 au même rang que Windows, Linux et Netware sur la liste des systèmes certifiés par HP sur ses serveurs x86.
Au premier abord l'annonce est une bonne nouvelle pour Sun. Après avoir convaincu IBM de supporter Solaris sur les serveurs lames BladeCenter, le constructeur peut désormais se targuer d'avoir ajouté HP à la liste de ses "partenaires". Et il peut aussi désormais faire passer le message que Solaris x86 est désormais une véritable alternative à Linux et Windows, y compris sur les serveurs de ses concurrents. Le problème dans les deux cas est qu'HP et IBM sont de drôles de partenaires, dont les intentions sont tout sauf amicales.
En fait dans les deux cas, le support de Solaris est une menace immédiate pour l'activité naissante de Sun dans le monde des serveurs x86. Sun a pris beaucoup de retard dans le développement de ses gammes x86 (la gamme "Galaxy" ne sera complète qu'à la fin de l'année) et ne dispose pas du large catalogue de ses concurrents. En l'état actuel de ses gammes, il peut tout juste se battre sur le marché des serveurs bi-processeurs en rack (certes plus des 3/4 du marché). Il ne dispose pas encore d'offre de serveurs lames et n'a pas non plus de modèles haut de gamme à 4 ou 8 sockets à son catalogue. D'une certaine façon, la certification de Solaris par HP et IBM sur leurs serveurs x86 ressemble donc aussi à un ticket d'entrée pour le loup dans la bergerie Sun. Elle offre à HP et IBM un moyen d'endiguer la montée en puissance des ventes de la division x86 de Sun, en permettant aux clients désireux d'adopter Solaris x86 de choisir des serveurs HP ou IBM. Avec un danger supplémentaire à terme : qu'HP et IBM tente de convertir ces clients à Linux pour couper définitivement leur lien avec Sun...
janvier 24, 2006 dans Serveurs | Permalink | Commentaires (0) | TrackBack