Puissance de calcul

Répondre
Partager Rechercher
Message supprimé par son auteur.
Message supprimé par son auteur.
Le problème c'est qu'on connait pas le programme donc on peut pas savoir si il va être efficace avec des choses spécifiques Parce qu'il faudrait savoir le genre de calcul qu'il fait, l'utilisation et la gestion de la mémoire ect ... CUDA c'est balèze oui mais faut avoir développé l'application pour l'utiliser ce que je doute dans ton cas. C'est quoi SAS ?
Pour finir je dirais que si tu prends des i7 oui tes performances vont énormément s'améliorer quoiqu'il arrive.
Message supprimé par son auteur.
C'est sur qu'avec du Xeon épaulé par une carte Fermi 8Go de Ram et un lot de DD en SAS ça carburerait grave ...
Mais encore faut-il connaître les impératifs de prog, de connectivité etc..

Dans les petites sociétés, la plupart du temps, c'est le réseau qui bride pas mal les accès serveurs ... ya des cartes réseaux PCIe avec 4 ports gigabite spécialement faites pour les grosses connexions serveur/client.
Mais il faut revoir toute l'architecture réseau et c'est valable si le serveur a les capacités nécessaires à une telle hausse de demandes.

Faut donc d'abord voir si ça vient d'une saturation des instructions niveau serveur ou d'un goulet d'étranglement niveau réseau ...
Message supprimé par son auteur.
faudrai voir dans la situation actuelle si c est plutot le serveur de base de donnee qui a la cpu a 100 % ( si le cpu est a 25 ou 50 c est qu il n utilise pas tous les core) ou les autres pc qu elle memoire est utilise etc

si la vitesse des disques est important (depend de la quantite lu) si oui un bon raid pour monter a plus de 500 Mo/s

le sql il faut plusieurs disque physique pour acceler le truc et boucoup de ram pas hesiter a 8 12 go 1 disque pour les donnees un pour les log

fermi c est bien pour faire des calcul "scientifique" mais faut tous reecrire et avec une grosse base de donnee suis pas sur que ce soit facile ( on va 20x plus vite qu un tres bon processeur avec )
Citation :
Publié par Acaedan
- Des programmes à faire tourner sous SAS avec de très grosses bases de données pour faire plein de simulations.
- Entre 1000 et 10000 simulations qui prennent entre 3 et 5 jours à aboutir.
- Un serveur beaucoup plus rapide à côté, mais aux nombre de connexions simultanées assez limitées ce qui nous gène un peu dans le travail.
Donc tu as un gros serveur de base de donnée qui délègue des tâches à une troupe de PCs de bureau uniquement dédiés à cela ? J'ai bien compris ?

Citation :
Publié par Acaedan
L'idée était donc de changer une partie des PC de manière à accélérer un peu les temps de calcul. Je n'ai pas encore idée du budget, mais c'est à mon avis assez limité.
Difficile de chercher une solution pro si le cout doit être minime. Pour avoir une bonne puissance de calcul a faible cout, l'idéal serait d'attendre la sortie... Des phenom II x6, et de monter quelques machines basiques avec ce processeur dedant, le prix d'un x6 devrait tourner vers les 200€ en prix d'appel, ajouter à cela la CM, la mémoire, boitier, alim pour 250€ par machine de 6 cores.
Enfin, ça c'est la solution "on se demerde avec le moins de sous possible". Coté efficacité énergétique, ce sera pas franchement bon.

Maintenant, pour partir vers de vraies solutions pro, je pense que la solution est une fois de plus à voir du coté d'AMD qui sort ses processeurs 12 cores sous peu, capables de fonctionner par 2 ou par 4 et proposés à des prix agressifs.


Citation :
Publié par Acaedan
D'autres solutions existent-elles ? Faire tourner simultanément plusieurs PC sur le même programme pour multiplier les ressources disponibles ?
Pas de miracles de ce coté là : je suppose que vous disposez d'un grand nombre de tâches chacune monothread ? Qui sont dispatchées à la volée par le serveur sur les machines de calcul ? Dans ce cas, le calcul est simple : 6 cores = 3 fois plus de travail que 2.

Citation :
Publié par Acaedan
J'ai entendu parler de CUDA, Fermi et autres noms barbares comme solutions adaptées aux gros calculs. C'est uniquement graphique ou ca s'appliquerait aussi ici ?
A moins d'avoir envie de recoder vos applications, rien à voir la dedans.

Citation :
Publié par Acaedan
Quel est l'impact de la RAM et des disques dur dans une telle application ? Des disques plus "pro" (SAS) voir en raid (0 ?) pourraient-ils être utiles ?
Cela dépend totalement de la charge que vous infligez à vos PCs de calcul. Si une machine n'est dédiée qu'a des calculs que le "gros serveur" lui envoie, je ne vois pas en quoi un bon disque dur accélèrerait les choses.

Très clairement, je ne suis pas au point dans ce domaine. Je pense que le plus à même de t'en parler sur ce forum serait Noriel.
Message supprimé par son auteur.
Si la base de donnée sur laquelle sont exécutées les applications de calcul est en local sur la machine, alors il te faudra analyser tout le fonctionnement des machines en question pour savoir quel est le facteur limitant. (Fréquence CPU, nombre de CPUs, taille de la mémoire, débit des accès disques, nombre d'accès disque...)

Si le facteur limitant se situe au niveau des disques durs, alors il faudra envisager l'utilisation de cartes raid pro, ou de disques SSD.
Citation :
Publié par Acaedan
Non. Je me trompe peut être, mais pour moi le serveur n'a rien à voir. Il gère juste des trucs de base (office, données, pc etc) auxquels on accède via Citrix.
Les PC sont indépendants (pas reliés entre eux donc), et les bases de données, SAS et les programmes sont stockés directement sur leurs disques durs.
Je me connecte aux PC via le serveur (Citrix->MSTSC->PC) uniquement pour exécuter les programmes, mais tout est géré en local sur chacun des PC.
Je ne comprends pas ton archi, si je comprends bien, depuis ton poste, tu lances le client ICA Citrix, puis de ta session Citrix tu lances un TSE vers... un PC ?? C'est bizarre comme système. Vers quoi pointe ton RDP ?
Message supprimé par son auteur.
Le rdp c'est un fichier de config qu'utilise ton client mstsc pour se connecter rapidement, tu peux l'ouvrir avec un bloc note pour voir son contenu (ou faire clique droit/modifier)
Tu peux avoir le nom du serveur attaqué, ton username et pass crypté ou non, tes paramètres de client (nombre de couleurs, remontée des imprimantes, médias locaux, etc...)

Bon sinon je comprends mieux ton système ; donc en fait chaque personne utilisant votre logiciel possède les raccourcis vers ces machines et se connecte à celles donc le nombre maxi de sessions simultanées (2 je suppose ?) n'est pas atteint pour y bosser ? Et ces machines ont une configuration identique ?
Si c'est bien ça, effectivement c'est assez contraignant, autant pour l'utilisateur que l'admin
Message supprimé par son auteur.
Les PC où tournent SAS, ce sont des postes avec utilisateurs ou ils sont dédiés pour SAS ?

Ou reformuler différemment, c'est pas sur ton poste de travail (ou de quelqu'un d'autre) que tourne SAS ?

Et les postes où tourne SAS ils sont sous quel système d'exploitation (Serveur ou client)?
Message supprimé par son auteur.
Et si j'ai bien compris, SAS c'est que de la ligne de commande, il n'y a pas d'interface graphique ?

De ce que j'ai vu sur le internet, SAS peut se mettre sur une plateforme UNIX/Linux. Il serait peut être possible, pour ton service informatique, de faire des tests, sur l'une de vos machines actuelles, sous Linux.

A priori, c'est la puissance processeur qui compte plus que le reste (cf. les config données dans ton premier post). Reste à voir votre budget, et rien ne vous oblige à changer tout le parc d'un coup ? Peut-être passer sur des machines orientées serveur, comme des HP Proliant G6 (Faut compter 2000€ par serveur plus 250€ par HDD), voir même en location.
Le meilleur moyen de faire le bon choix, c'est d'abord de localiser précisément les limites de chaque élément de l'infrastructure (software/hardware).
Ensuite tu choisi de mettre l'accent financièrement en fonction des limites les plus contraignantes.

Bref, il faut d'abord monitorer toute la plateforme.
Et ensuite, si l'analyse du monitoring n'est pas suffisamment expressive il faut stresser les composants de l'infrastructure un par un.
Dans un premier temps déterminer si le programme est bien multithreadé, et s'il necessite des acces disque fréquents... Ceci pour savoir s'il faut investire dans des processeurs multi coeur, et des disques rapides.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés