retour pourquoi Mac
On parle de Wintel quand on évoque les machines à bases de processeurs Intel (Pentium et leurs variantes) utilisées sous les divers systèmes d'exploitation Windows.
|
|
|
|
|
|
|
|
dernière mise à jour 27 mai 2004
les machines : on parle de Wintel quand on est poli. Quand on se fache, on évoque les beurks, et aussi les chaudières, les bouilloires, les radiateurs... Le processeur est facilement traité de Buggium. On dit parfois Un Tel Bordel Inside.
Il est habituel de parler de Wxx pour parler des différentes déclinaisons de Windows (W95, W98, W00, WNT). La liste des qualificatifs affectueux de Windows est hallucinante. J'ai sélectionné pour vous : Fenestron, Soupirail, Winchose, Winchiotte, Ouin Ouin. NT se traduit par "not today, not tomorrow, no thanks"
Quand aux traductions apocryphes de Bill Gates et Microsoft... retenons : Petit Mou, Porte et Fenetre, la bande à Billou.
je recueille toutes vos suggestions :
pmanet@invivo.edu
La firme Intel inventa le microprocesseur vers 1971. Ce furent initialement le 4004, puis le 4008, le 8088, puis le 8086. De ce dernier dérive la calamiteuse lignée X86, le 80586 étant devenu le Pentium et le 80686 le Pentium II pour des raisons de brevetabilité du nom (impossible de breveter un numero, ce qui permettait aux concurrents de fabriquer des "machins 486").
Malheureusement, pour des raisons de compatibilité, cette lignée conserve de ses glorieux prédécesseurs une structure archaique qui en rend la programmation illogique et difficile.
Depuis longtemps, Intel a défini les principes architecturaux (projet Merced) de sa prochaine lignée de processeurs. Malheureusement, les pourparler avec Alpha, puis Hewlett Packard pour la mise au point de ces nouveaux processeurs n'ont pas donné les fruits escomptés. Ce projet est actuellement nommé IA64, mais il semble qu'il sera reservé aux mini ordinateurs, le processeur se révélant extremement couteux.
En attendant, Intel bricole la lignée existante pour occupper le terrain marketing sans apporter d'autre progrès notable qu'une accélération en fréquence. Celle-ci connait 2 limites :
la longeur d'onde ; la vitesse de l'électricité étant limitée à 300 000 km/s, il est difficile de travailler à plus d'1 GHz dans un processeur, sinon les composants périphériques ne sont plus en phase avec le processeur.
le cout : rien ne sert de faire un processeur à 1 GHz si les composants périphériques, et notamment les mémoires, ne suivent pas. Cela entrainerait des couts faramineux. Une meilleure organisation du fonctionnement du processeur, des instructions, de la largeur du "bus" est donc plus utile que la simple augmentation de la fréquence du processeur. La lignée X86 est dans une impasse depuis plusieurs années.
L'évolution inéluctable du processeur se traduira par un changement de toute l'architecture des machines et des programmes, rendant caduques toutes les machines actuelles.
mise à jour 2004
le projet Merced a échoué en pratique ; pour utiliser l'architecture I64, Intel fabrique un Itanium qui reste relativement lent et très cher, reservé aux gros serveurs professionnels.
Contrairement à ce qui avait été annoncé en 1995, Intel a donc du se résoudre à bricoler le pentium. Les problèmes de déphasages dans la machine ont été résolu en n'accélerant que le processeur et sa mémoire cache, l'interface avec le reste de la machine restant beaucoup plus lent. On s'en tire en élargissant le bus mémoire, ce qui favorise évidement les processeurs 64 bits du type G5 ou Itanium. Cependant, depuis un an, la lignée X86 d'Intel plafonne autour de 3 GHz, et il semble que, comme pévu, on arrive à un plafond lié à la finesse de la gravure, qui entre dans le domaine pauci atomique (65 nm).
En revanche, la lignée Power d'IBM a encore de la marge de progression, et le G5 utilisé dans les Macs semble pouvoir encore doubler sa fréquence actuelle de 2GHz dans les 18 mois. Par ailleurs, sa conception et le système Unix du mac le rendent naturellement apte au fonctionnement multiprocesseur, ce qui devient dorénavant la principale voie d'augmentation de puissance des machines (tous les macs de bureau sont d'ailleurs bi processeurs).
Intel a réussi à faire croire aux utilisateurs que le nombre de MégaHerz d'un processeur représente l'alpha et l'omega de sa capacité de calcul. Si c'est vrai pour un type de processeur donné, c'est totalement faux quand on cherche à comparer plusieurs processeurs : tout dépend de ce qu'un processeur sait faire en un cycle !!! Pour simplifier, si le processeur A a besoin de 4 cycles pour faire une mutliplication, et qu'il en faut 20 au processeur B, un processeur B à 2 GHz a la même puissance qu'un processeur A à 400 MHz.
La vitesse d'une voiture ne dépend pas seulement du nombre de tours minutes du moteur, mais aussi du rapport de la boite de vitesse. C'est ainsi que les processeurs POWER des machines IBM ou les Itanium d'Intel tournent beaucoup moins vite que les Pentiums alors qu'ils calculent plus vite.
Même sur les micros Intel, le phénomène a existé : à fréquence égale, le P4 est plus lent en calcul que le PIII, mais il est plus facile de le pousser en fréquence. En fait, quand en novembre 2000 Intel sort le P4 à 1,5 GHz, il est tout juste équivalent au PIII à 1 GHz qui existe à l'époque. Alors que les béotiens croient voir une amélioration, il s'agit tout juste d'une campagne markéting.
On a d'ailleurs eu la même chose avec les processeurs des macs : dans mon expérience (calcul OGR) un G4 à 550 MHz est équivalent à un P4 à 1,2 GHz. Avec la meme référence, le nouveau G5 à 1,2 Ghz fait à peine mieux qu'un G4 à 1 Ghz. (en revanche, il sera facile de le pousser prochainement à 3 puis 4 GHz, ce qui n'était pas envisageable avec le G4).
la seule comparaison valable entre des architectures différentes est la mesure des FLOPS (FLoting OPerations / Second)
La gestion des périphériques a été conçue à l'époque où l'informatique était faite par des passionnés. Les mordus acceptaient sans rechigner de passer quelques heures à installer chaque périphérique en paramétrant IRQ et autres joyeusetés. Les drivers de ces périphériques étaient assez primitifs, les fonctions proposées restaient sommaires, et on n'hésitait pas à aller les bricoler, voire les réécrire totalement pour les adapter à leur tache. Régler l'adaptation entre un traitement de texte et une imprimante pouvait prendre une demi journée, et on risquait d'avoir à refaire la manip pour des documents un peu particuliers.
D'ailleurs, il y avait peu de configurations, les périphériques était peu nombreux, ce qui limitait les incompatibilités et la documentation des anomalies. Depuis, la conception de base de la machine n'a évolué que par empilement, tout en conservant les scories antérieures.
Cliquez pour l'avis d'un programmeur sur PC et sur Mac.
Aujourd'hui, il existe des centaines de modèles de carte-mère et des milliers de cartes et accessoires à brancher dessus. Il existe bien des recommandations, mais comme le principal intervenant du secteur les piétine systématiquement, elles sont peu appliquées, chaque constructeur en faisant à peu près à sa guise pour améliorer le fonctionnement de son produit sans trop se soucier des problèmes pratiques.
Par ailleurs, les utilisateurs exigent des fonctions beaucoup plus sophistiquées, comme l'autoconfiguration ( plug and play ; ou plutot plug and pray), le WYSIWYG (What You See Is What You Get = sur le papier comme à l'écran) et un fonctionnement presse bouton. Les fonctions devennant complexes, leur programmation est inaccessible à l'utilisateur moyen.
Dans la plupart des domaines, les choix techniques des sous-ensembles de l'ordinateur PC ont systématiquement préféré le cout à la performance et à la facilité d'utilisation.
On peut citer la norme VGA des écrans, le bus ISA des cartes, le bus IDE des disques durs, les ports parrallèles et série bricolés pour le clavier et la souris.
le maxi foutage de gueule de l'an 2000 (ça te gene pas d'être fait refourguer une machine avec une horloge toujours pas conforme et un OS toujours pas certifié ?)
|
L'aventure de Bill Gates est légendaire. On se contentera pour ce qui nous concerne de rappeler que BG a racheté chez QD (le nom de la boite, c'était Quick and Dirty, c'est dire...), un truc fondé en partie sur le CP/M des années 70, pour le bricoler et le revendre à IBM qui cherchait un système d'exploitation pour son premier micro-ordinateur (le PC XT). Ce logiciel avait de nombreuses limitations qui pénalisent aujourd'hui encore les utilisateurs de Beurks. Le DOS, vendu avec chaque machine, a rendu BG richissime, lui permettant d'imposer partout sa suite Office sans la faire payer (ou plutot, en ne faisant rien pour en limiter le piratage). |
|
Après s'être gaussés pendant quelques années de l'interface graphique d'Apple, les informaticiens ont bien du se rendre à l'évidence : si on voulait étendre l'utilisation de l'ordinateur à l'ensemble de la population, il fallait en passer par là. Au lieu d'étudier sérieusement le problème pour faire mieux qu'Apple, Microsoft s'est contenté de mettre des informaticiens sur le sujet pour essayer de plaquer une interface "à la Mac" sur le DOS (on raconte que Windows 2000 sera affranchi du DOS, mais c'est déjà ce qui se disait de W95. Ce n'est pas sur).
Pour une analyse systématique de l'interface graphique de Windows, cliquer ici.
En résumé, sont catastrophiques et contre productifs la multiplication des fenetres avec leurs barres de menu individuelles, la barre de commande en bas, le menu principal en bas à gauche.
|
|
La meilleure preuve de l'amateurisme complet des concepteurs de Wxx : pour éteindre la machine, il faut cliquer sur l'item démarrer ... J'ai vérifié : en anglais, c'est pareil. |
Il faut ne jamais avoir utilisé un Mac pour prétendre ça !!!
exemple : redemarrer à partir d'un disque externe pour changer le disque interne, le réparer ou n'importe quelle autre raison. Opération basique lors de la maintenance.
sur Mac :
allumer le disque externe, allumer le Mac
aller dans le tableau de bord "démarrage", sélectionner le disque externe (ou un partition quelconque ; on peut démarrer sur n'importe quelle partition de son disque sans formalité).
au prochain redemarrage, on sera sur le disque externe.
Sur PC
Déconnecter physiquement et mettre sur NONE dans le BIOS le disque IDE.
Booter sur une disquette système W98
Lancer FDISK
Déclarer le disque SCSI avec une partition DOS primaire et l'activer.
Rebooter avec la disquette système W98
Lancer Format C: /S /V:SCSI_C
Arrêter la machine
Reconnecter physiquement et dans le BIOS le disque IDE.
Rebooter sur la disquette
Lancer FDISK
Déclarer le disque IDE avec une partition étendue (surtout pas de partition
primaire).
Rebooter avec la disquette
Lancer Format D: /V:IDE_D
Relancer la machine
Dans le BIOS carte mère, déclarer l'ordre de boot avec SCSI en premier.
Dans le Setup de la carte SCSI, activer le BIOS et déclarer l'ID du
périphérique de boot.
bin tien !!!
on comprend que la maintenance sur PC coute cher !!!
Le problème, c'est que l'absence de chef d'orchestre rend l'évolution du Beurk imprécise et ingouvernable.
Intel (suivi par quelques copieurs) définit les caractèristiques du processeur.Mais ce n'est pas la seule pièce de la machine !!!
Ensuite, on ne sait plus trop qui définit plus ou moins parfois et contradictoirement des caractèristiques concernant des composants et modes opératoires (clavier, souris, mémoires de masse, affichage). Quelques fabricants empilent des versions sans cesse changeantes de ces pièces détachées sur des cartes-mères au design sans cesse évolutif, et des centaines d'assembleurs essaient de monter tout ça dans des machines.
Pour faire fonctionner le tout, on plaque dessus un système d'exploitation (Windows) auquel chaque participant rajoute des morceaux (drivers) pour faire fonctionner une pièce du puzzle. Généralement, si l'assembleur est sérieux, ça arrive à fonctionner à peu près au moment de l'achat.
Dès qu'on rajoute une pièce, un logiciel, c'est "à la grace de dieu...". Au bout de 2 ans, changement de version de Windows et vlan, la machine est foutue ; zetes bonne pour en racheter une neuve, ma bonne dame ! On s'étonne que les industriels adorent Bill Gate, l'homme qui oblige tous leurs clients à jeter une machine parfaitement fonctionnelle tous les 2 ans !
Dans la registry, quand tu ajoutes une chaine "MenuShowDelay" à 0 dans Hkey_Local_Machine/Current_User/Desktop, tu t'aperçois que les sous-menus du menu "démarrer" réagissent au quart de tour. Ils bondissent au lieu de s'ouvrir au bout d'un délai intolérable. Pourquoi mettre des boucles d'attentes, alors ? Pour faire ramer les vieilles bécanes... et Windaube a toujours été plein de ces fameuses boucles...
Les microsoftiens raisonnables acceptent l'idée que W95, W98 et suivants sont des joujoux instables, voire abominables, ce qu'ils attribuent à l'empilage depuis le CP/M et le DOS. Mais la solution devient alors Windows NT, la version "pro", avec ses déclinaisons WNT Workstation (personnel) et WNT Serveur, qu'ils comparent aux solution professionnelles UNIX. Pour les informaticiens réalistes, c'est une tromperie manifeste. Deux exemples pour illuster l'illusion.
La Marine américaine a voulu économiser le personnel en automatisant l'ensemble des taches de gestion du navire. Pourquoi pas ? Pour faire mode, elle a cru bon d'installer l'ensemble des fonctions sur un réseau géré par un serveur NT. Une erreur de programmation (division par zéro) sur un des ordinateurs du réseau a bloqué non seulement la machine mais l'ensemble du navire, le rendant ingouvernable. Il est rentré au port en remorque !!! Impossible de relancer les ordinateurs et le réseau. Si WNT n'est évidemment pas responsable de l'erreur de programmation d'une base de donnée installée sur un des ordinateurs du réseau, il est absolument anormal pour un système prétendument multi utilisateur-multitache de s'effondrer totalement sur une panne de ce type et de ne pas pouvoir redemarrer ensuite. Des détails en anglais en suivant le lien.
Pour des raisons stratégiques, une grosse boite américaine a décider de faire du "tout Microsoft" en remplaçant son informatique UNIX. Une catastrophe. Toujours en anglais.
Windows prends de plus en plus de retard. On reste scotché à XP. Longhorn, qui devait en etre le successeur, vient d'etre repoussé à 2007. Et encore, avec des fonctionnalités inférieures à celles prévues. Gageons que Petit mou va nous trouver des astuces pour faire passer le temps en attendant ! ça me rappelle le passage au merced, selon Intel.
oh non, d'autres le font mieux que moi.
En dehors de quelques écoles d'informatique appliquée plus ou moins sous contrat avec Petit Mou, les universitaires n'apprécient pas les produits Microsofts, dont la qualité de programmation est universellement dénoncée comme désatreuse.Laissons par exemple la parole à Monsieur Di Cosmo, professeur d'informatique au Conservatoire des Arts et Métiers, dont le texte initial est ici..
Pour ceux qui n'ont pas le temps, résumons son exposé :
Les professionnels ont l'habitude d'énoncer que les clients sont les principaux débuggueurs, et que BG vend des versions béta (une version béta est une version presque finie que la firme diffuse sous contrat auprès d'informaticiens chevronnés afin de recevoir des rapports de bug). Ainsi, W95, mis sur le marché fin 1995, n'a été réellement stabilisé (?) qu'avec la DR2 diffusée fin 97. Bon nombre des premiers acheteurs n'en ont jamais rien su, et ont continué à utiliser un système assez peu fonctionnel et pour tout dire expérimental.
Pour qui prend la peine d'analyser la situation, les pratiques commerciales de cette firme pretent à vomir.. En résumé, cela consiste habituellement à diffuser gratuitement un outil (Office initialement, Explorer maintenant) pour étouffer la concurrence. On l'a vu aussi racheter pour les fermer des firmes dangereuses, car ayant developpé des produits meilleurs que les siens. Par ailleurs, on organise sur le dos des consommateurs une esclade à la puissance et aux changement obligatoire de tous les composants pour s'attirer la bonne grace des fabricants de matériel. Enfin, on rend l'utilisation un peu poussée incompréhensible, pour s'assurer la complicité d'une armée d'intervenants pour l'installation, la configuration, la formation, la maintenance...
MS utilise les techniques piquées aux autres compagnies pour les gruger ; ils ont par exemple essayé de piquer la clientèle de Kodak tout en utilisant leur système de connexion d'appareil photo aux micros (cité par le Wall Street Journal)
MS n'hésite pas à truquer les enquêtes sur Internet pour mettre en valeur ses produits en organisant en masse le vote de ses employés ; heureusement, les techniques de flicages d'Internet Exchage et le peu de subtilité des organisateurs ont permis de révéler la manip..
Le but étant évidemment de se trouver ensuite en position de monopole pour rançonner les utilisateurs.
Une
grande campagne
internationale anti-Microsoft vient d'être
lancée.
Enfin, Microsoft et Intel on commencé à implémenter une nouvelle architecture visant à controler completement le fonctionnement des PC : l'architecture TCPA et Palladium. Plus de détails
C'est ainsi qu'à votre insu, le système XP se connecte sans arret sur les serveurs de Microsoft (on a repéré 14 sortes de connexions différentes), par exemple chaque fois que vous utilisez votre lecteur de CD, ou Window Media Player.
|
|
|
|
|
Le passage à l'architecture IA64 promet d'être sympatique. Tout est en place :
|
De nouvelles machines complétement reconfigurées, dont tous les éléments seront nouveaux ; coopération incertaine avec les anciens systèmes |
Ceux qui ont vécu la prétendue évolutivité des cartes mères ces dernières années comprendront peut-être : bien sur, on a le droit de changer son processeur pour un plus performant, mais au bout d'un an, finit de jouer, on change de socket |
|
Récupération des anciennes applications impossible |
architecture différente, processeur différent Tout à racheter ; plus de driver pour les périphériques... |
|
modification permanente des spécifications, et intégration du système et de toutes les applications entrainant des frais d'évolution constants et obligatoires pour rester compatible avec l'ensemble des correspondants |
On voit actuellement sur le web de plus en plus de serveurs qui vous incitent fortement à upgrader votre système pour profiter de nouvelles possibilités, voire qui vous "jettent" si vous n'etes pas assez modernes |
|
Piratage complétement impossible par la mise en oeuvre concertée d'un faisceau de nouvelles technologies: |
|
Le temps où des firmes plus ou moins éphémères sortaient des produits fermés comme des boites noires, au fonctionnement souvent peu satisfaisant, et tenaient leurs clients (et leurs données) prisonniers jusqu'à ce qu'elles disparaissent devrait se terminer.
Un nouveau mode de production des applications informatiques consiste à utiliser des logiciels libres aux sources publiques, constamment remises à jour et améliorées par la communauté des professionnels. Sur ces bases, les firmes informatiques peuvent developper des produits spécifiques qu'elles vendent à leurs clients, à condition de livrer en meme temps leurs sources, correctement documentées.
Cela permet à tout un chacun de pouvoir vérifier le travail qui a réellement été fait, de faire expertiser le produit en cas de dysfonctionnement, de le faire évoluer au fur et à mesure des améliorations générales, et de reprendre le travail sans trop de souci en cas de disparition du concepteur original.
Cela permet aux bons informaticiens de mieux se faire valoir, et
aux mauvais de disparaitre.Ceux qui craignent de se faire voler leur
travail n'ont pas bien compris le système. Il reste bien
évident que le developpeur initial d'un projet restera
toujours le plus à meme de poursuivre le travail et qu'il
conservera ses clients... à condition de bien travailler ! Et
les clients ont plus confiance, notamment dans les petites structures
(ils ont moins peur de perdre leur investissement et leurs
données en cas de défaillance du
constructeur).![]()
C'est peut-être la principale raison des difficultés de démarrage de cette méthodologie novatrice, mais il semble que le tournant soit pris.
Note d'un habitué des firmes informatiques :en général, les bons dévelopeurs sont dans des petites structures ; dans les grosses, on a des équipes plutot médiocres (les bons sont devenus chefs, ils ne mettent plus les mains dans le cambouis). Mais les petites boites ont une espérance de vie assez limitée (il faut être conscient que les équipes des grosses boites sont encore plus éphémères ; vu de loin ça se voit moins, mais ça explique en partie la mauvaise qualité de leurs projets, qui passent souvent de main en main à longueur d'année). Résultat : un client préfère souvent confier son système d'information à une grosse boite perenne de pietre qualité plutot qu'à une petite excellente qui risque de disparaitre ou de se faire racheter. L'utilisation du logiciel libre, en crédibilisant le travail de qualité, devrait améliorer la qualité générale des produits informatiques.
Linux est le plus connu de ces logiciels libres (il s'agit d'un système d'exploitation fonctionnant sur de nombreuses plateformes : X86, MacIntosh, Alpha, et plusieurs autres), mais il existe bien d'autres produits et systèmes d'exploitation.
|
|
|
|
|
|
Il est donc inadmissible qu'un Etat diffuse sa documentation sous une forme liée à un produit payant d'une firme privée, obligeant ainsi ses concitoyens à devenir dépendant de cette firme.
Il est tout aussi inadmissible qu'un Etat favorise la mise en place préférentielle de systèmes privés dans ses établissements, l'enseignement exclusif des fonctionnalités d'un système privé, le recrutement de personnels sur le seul critère de son aptitude à faire fonctionner un système privé.
Par contre, le role des Etats pourrait etre de favoriser, par des bourses de recherche, la mise en place des bases pré concurrentielles des logiciels libres, favorisant ainsi la mise en place d'une informatique au service de la société, concourant à l'amélioration de la productivité et à l'assainissement de la profession.
On pourrait notamment trouver là un role à l'Europe et à ses programmes de recherche, ce qui permettrait de valoriser un potentiel en haute technologie alors que nous dépendons presque exclusivement des USA dans le domaine des systèmes d'exploitation, du web et de la bureautique.
Jusqu'ici, les particuliers utilisateurs de Wintel ne payaient pas leur logiciels (ou très peu) et arrivaient à se satisfaire de leur machine en les changeant tous les 2-3 ans. Sous une assez breve échéance, ils risquent de se faire cruellement rançonner.
Ceux qui ont la fibre informatique peuvent essayer de se frotter à Linux, mais ce n'est pas encore donné à tout le monde.
Pour l'instant, une seule solution :
ou bien retour en haut de page