Bonjour à tous.
Après l’installation de debian 7, tout ce passe très bien.
J’ai migré ensuite mon noyau sous openvz. Et depuis lors, ma carte réseau ne fonctionne plus.
Quelqu’un pourrait il me donne une solution?
Merci
Bonjour à tous.
Après l’installation de debian 7, tout ce passe très bien.
J’ai migré ensuite mon noyau sous openvz. Et depuis lors, ma carte réseau ne fonctionne plus.
Quelqu’un pourrait il me donne une solution?
Merci
La carte est reconnue?Le bon driver chargé ?
Avec le noyau d’origine tout marche mais sur le noyau openvz je n’est pas eth0 dans ifconfig.
Par contre la carte réseau existe bien dans lspci.
Essaie :
ip li pour voir l’ensemble des périphériques réseaux.A partir d’une certaine version du noyau(je me souviens plus de laquelle),le nommage des périphériques réseaux change.
[quote=“bitakola”]Essaie :
avec le noyau de base j’ai ceci:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN mode DEFAULT
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT qlen 1000
link/ether 4c:72:b9:1c:f9:5f brd ff:ff:ff:ff:ff:ff
3: wlan0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 1000
link/ether 74:e5:43:a1:fb:22 brd ff:ff:ff:ff:ff:ff
le noyau openvz donc ça:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: wlan0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT qlen 1000
link/ether 74:e5:43:a1:fb:22 brd ff:ff:ff:ff:ff:ff
3: venet0: <BROADCAST,POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN mode DEFAULT
link/void
Tu peux poster le contenu de /etc/network/interfaces ?
La sortie de ip li me semble normal.Et aussi ,cela n’a rien a voir avec le renommage des interfaces.Cela a trait avec la virtualisation et la gestion des interfaces réseaux pour les containers
[quote=“bitakola”]Tu peux poster le contenu de /etc/network/interfaces ?
La sortie de ip li me semble normal.Et aussi ,cela n’a rien a voir avec le renommage des interfaces.Cela a trait avec la virtualisation et la gestion des interfaces réseaux pour les containers[/quote]
Voici le contenu du fichier interfaces:
[b]auto lo
iface lo inet loopback
allow-hotplug eth0
iface eth0 inet static
address 192.168.21.11
netmask 255.255.255.0
network 192.168.21.0
broadcast 192.168.21.255
gateway 192.168.21.1
dns-nameservers 192.168.21.1 8.8.8.8[/b]
La réponse semble évidente :
Une installation sur une machine normale reconnaît eth0 et éventuellement d’autres interfaces genre wlan0 ETC pour le sans-fil.
Une installation dans un container reconnaît venet0, qui est une carte réseau virtuelle. Et éventuellement d’autres venetX.
Une nouvelle interface réseau sera créée sur l’hôte, le système hébergeant le container, et pourra être raccordée au reste du réseau par :
Donc, il faut déjà décider si le container aura accès au reste du réseau, et comment. Ensuite, il faut modifier le /etc/network/interfaces du container en configurant l’interface venet0 au lieu de eth0.
–
AnonymousCoward
[quote=“AnonymousCoward”]La réponse semble évidente :
Une installation sur une machine normale reconnaît eth0 et éventuellement d’autres interfaces genre wlan0 ETC pour le sans-fil.
Une installation dans un container reconnaît venet0, qui est une carte réseau virtuelle. Et éventuellement d’autres venetX.
Une nouvelle interface réseau sera créée sur l’hôte, le système hébergeant le container, et pourra être raccordée au reste du réseau par :
Donc, il faut déjà décider si le container aura accès au reste du réseau, et comment. Ensuite, il faut modifier le /etc/network/interfaces du container en configurant l’interface venet0 au lieu de eth0.
–
AnonymousCoward[/quote]
C’est bizar ça. C’est la première fois que je dois faire cette manipulation. Tous mes autres machines n’ont pas ce problème.
Tout ce que tu montres est dans un environnement virtuel OpenVZ ou sur la machine hôte ?