A voir également:
- AIX sur non IBM servers
- Ibm spss - Télécharger - Outils professionnels
- Orange dns servers - Accueil - Guide box et connexion Internet
- Ibm as400 prix - Forum Matériel & Système
- Cesi aix en provence - Forum Études / Formation High-Tech
- Ibm trusteer rapport avis - Forum Virus
12 réponses
Salut,
depuis la version 3, sortie en 1990, AIX ne tourne que sur des PowerPC.
Mais ces processeurs peuvent être montés dans des machines qui ne sont pas vendues par IBM. C'est le cas des séries ESCALA/PL de chez Bull, par exemple (un partenariat lie les deux entreprises).
depuis la version 3, sortie en 1990, AIX ne tourne que sur des PowerPC.
Mais ces processeurs peuvent être montés dans des machines qui ne sont pas vendues par IBM. C'est le cas des séries ESCALA/PL de chez Bull, par exemple (un partenariat lie les deux entreprises).
Oui c'est vai, BULL comercialise des machine avec des processeurs Power6/7 d'IBM, avec AIX au dessus
Vous n’avez pas trouvé la réponse que vous recherchez ?
Posez votre question
Une autre question qui semble hors sujet mais urgente.
Dans la configuration actuelle de ma société deux serveurs en cluster actif/passif, (2processeurs Itanium mono cours, 16 GB, I/O Raid5) permet le traitement de 30000 opération (propre a une application) dans 30min, on veux minimiser le temps de traitement, donc comment je vais dimensionner les nouveaux serveurs pour accomplir cet objectif sans sur-dimensionner? j'ajoute que le nombre d'opération va surement doublé dans 3 ans.
Dans la configuration actuelle de ma société deux serveurs en cluster actif/passif, (2processeurs Itanium mono cours, 16 GB, I/O Raid5) permet le traitement de 30000 opération (propre a une application) dans 30min, on veux minimiser le temps de traitement, donc comment je vais dimensionner les nouveaux serveurs pour accomplir cet objectif sans sur-dimensionner? j'ajoute que le nombre d'opération va surement doublé dans 3 ans.
Ca dépend ;-)
Il faut connaitre le rapport entre d'I/O et le CPU pour chaque opération, de manière à voir ce qu'il faut renforcer (gestionnaire d'I/O, RAM, CPU...)
Quel OS ?
De plus, on ne sait pas si le gestionnaire de RAID-5 (hard ou soft, au fait ?) ne va pas s'effondrer passé une valeur critique.
Connaitre aussi la programmation peut servir : les tâches peuvent-elles être multi-threadées ? Dans ce cas, quid des I/O et des deadlocks probables ?
Je ne peux pas répondre comme ça...
Il faut connaitre le rapport entre d'I/O et le CPU pour chaque opération, de manière à voir ce qu'il faut renforcer (gestionnaire d'I/O, RAM, CPU...)
Quel OS ?
De plus, on ne sait pas si le gestionnaire de RAID-5 (hard ou soft, au fait ?) ne va pas s'effondrer passé une valeur critique.
Connaitre aussi la programmation peut servir : les tâches peuvent-elles être multi-threadées ? Dans ce cas, quid des I/O et des deadlocks probables ?
Je ne peux pas répondre comme ça...
Pour le système d'exploitation actuelle c'est HP-UX 11i, mais puisque ORACLE va cessé de développer sur les processeurs ITanium, le futur OS va être AIX.
Pour le RAID on utilisent des contrôleurs HARD de HP (2 contrôleurs).
Au niveau application, je sais pas si c'est multi-threading ou non.
Pour le RAID on utilisent des contrôleurs HARD de HP (2 contrôleurs).
Au niveau application, je sais pas si c'est multi-threading ou non.
Deux switch SAN, chacun est connecté au 2 noeuds du cluster pour assurer la redandance.
Pour l'AIX c'est sur une partition physique.
Pour le baie:
96 Disques FC, 146 Go, 15000 tpm
Pour l'AIX c'est sur une partition physique.
Pour le baie:
96 Disques FC, 146 Go, 15000 tpm
Donc avec de la redondance, tu vas découvrir les joies de MPIO, qui t'offrira du multipathing, que tu géreras en mode 'round robin' pour gagner du temps...
A mon avis, le simple fait de passer en AIX (Power 6) + SAN sur FC devrait gagner du temps de manière significative.
Par contre, tu parles d'un traitement de 30000 opérations en 30 minutes, c'est du batch, non ? Pourquoi travailler en cluster ?
J'en ai profité pour répondre à une question de ta part sur la clim' ;-)
A mon avis, le simple fait de passer en AIX (Power 6) + SAN sur FC devrait gagner du temps de manière significative.
Par contre, tu parles d'un traitement de 30000 opérations en 30 minutes, c'est du batch, non ? Pourquoi travailler en cluster ?
J'en ai profité pour répondre à une question de ta part sur la clim' ;-)
Salut,
Merci bien, pour vos réponses. le cluster c'est pour le HA, puisque le système travaille 24/24 7j/7, et ne supporte pas d'être arrêter, donc, pour appliquer des patchs de sécurité ou bien remplacer un composant défectueux, on utilise l'autre noeud du cluster.
Merci bien, pour vos réponses. le cluster c'est pour le HA, puisque le système travaille 24/24 7j/7, et ne supporte pas d'être arrêter, donc, pour appliquer des patchs de sécurité ou bien remplacer un composant défectueux, on utilise l'autre noeud du cluster.
Des partitions physique.
Oui bien sur,
Dans l'un des offres, une société propose un HP blade server C7000, qui comporte les deux serveurs de production (cluster noeud 1&2) plus un serveur de sauvegarde et deux Switch FC.
Pour moi je trouve que un seul serveur (Blade server) va être un point de défaillance, si l'alimentation ou bien la ventilation de HP C7000, tombe en panne, le tout va tomber en panne. J veux savoir votre opinion??
Merci.
Dans l'un des offres, une société propose un HP blade server C7000, qui comporte les deux serveurs de production (cluster noeud 1&2) plus un serveur de sauvegarde et deux Switch FC.
Pour moi je trouve que un seul serveur (Blade server) va être un point de défaillance, si l'alimentation ou bien la ventilation de HP C7000, tombe en panne, le tout va tomber en panne. J veux savoir votre opinion??
Merci.
Une seule armoire pour gérer du HA est, à mon avis, une grosse bétise.
Ce n'est pas tant le problème de ventilation ou d'alimentation (la plupart sont redondantes et hot-pluggables), c'est plutôt le problème lié à l'infrastructure en elle-même :
- une lame prend feu, les autres suivent ou en pâtissent
- un souci dans le fond de panier (où l'on branche les lames) et c'est fichu.
- un intervenant qui coupe un fil ou qui renverse l'armoire et c'est HS
Pour moi, faire du HA, c'est :
- deux machines physiques dans deux salles différentes
- deux salles alimentées électriquement via deux voies électriques, pareil pour la ventilation
- deux liaisons FC par machine allant chacune à un switch différent, alimentés eux aussi par deux voies électriques différentes, tout cela avec des chemins physiques différents (pour les fibres)
- la même chose pour la baie de disque, qui, si on ne peut la doubler, doit offrir des caractéristiques de réplication synchrones (ou différées) + des snapshot pour faire des sauvegardes cohérentes (mode 'begin backup' d'oracle par exemple)
- une alimentation électrique de secours (type groupe électrogène)
Après, c'est une question de coûts...
Ce n'est pas tant le problème de ventilation ou d'alimentation (la plupart sont redondantes et hot-pluggables), c'est plutôt le problème lié à l'infrastructure en elle-même :
- une lame prend feu, les autres suivent ou en pâtissent
- un souci dans le fond de panier (où l'on branche les lames) et c'est fichu.
- un intervenant qui coupe un fil ou qui renverse l'armoire et c'est HS
Pour moi, faire du HA, c'est :
- deux machines physiques dans deux salles différentes
- deux salles alimentées électriquement via deux voies électriques, pareil pour la ventilation
- deux liaisons FC par machine allant chacune à un switch différent, alimentés eux aussi par deux voies électriques différentes, tout cela avec des chemins physiques différents (pour les fibres)
- la même chose pour la baie de disque, qui, si on ne peut la doubler, doit offrir des caractéristiques de réplication synchrones (ou différées) + des snapshot pour faire des sauvegardes cohérentes (mode 'begin backup' d'oracle par exemple)
- une alimentation électrique de secours (type groupe électrogène)
Après, c'est une question de coûts...