Machine virtuelle en worker sur Spark ne veut pas travailler !

Fermé
LaStagiaire Messages postés 1 Date d'inscription lundi 26 juin 2017 Statut Membre Dernière intervention 26 juin 2017 - 26 juin 2017 à 10:01
Bonjour,

J'ai un problème sur Spark que j'utilise sous R. J'ai réussi à connecter des ordinateurs et à les faire travailler sur un petit programme qui teste la répartition du calcul mais avec cette machine virtuelle impossible. Elle se connecte et je la vois bien sur la page du master comme connectée mais quand je lance le problème j'ai ce message d'erreur :

"WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources"

Sur les forum j'ai vu que ce problème apparait quand on lance plusieurs applications en même temps et qu'il n'y a plus assez de ressources dans le cluster pour toutes les exécuter or là il n'y a que cette petite application, sachant que ma machine virtuelle a 4 coeurs et 6,8g de mémoire...

Si quelqu'un pouvait m'aider ça serait top ! Merci d'avance :)
A voir également: