miércoles, 28 de septiembre de 2016
martes, 27 de septiembre de 2016
OCFS2 (Oracle Cluster File System) + VMWare Multi-Writer
OCFS (Oracle Cluster File System) es un sistema de archivos de discos compartidos o sistema de archivos distribuido para clusteres de servidores de sistemas GNU/Linux desarrollado por Oracle Corporation distribuidos bajo los términos de la GNU General Public License.
La primera versión de OCFS se desarrolló con el objetivo de albergar los archivos de la base de datos de Oracle en entornos clusterizados.Con la segunda versión del sistema las características POSIX fueron incluidas.
OCFS2 (versión 2) fué integrada dentro de la versión 2.6.16 del kernel de Linux. Inicialmente se marcó como código experimental (Alpha-test). Esta restricción se levantó en la versión 2.6.19. Con la versión de kernel 2.6.29 se añadieron más funcionabilidades como ACLS (access control lists) y cuota 2
La idea básica de este sistema de archivos es, dado un servidor de almacenamiento, compartir dicho almacenamiento entre diferentes servidores. Para ello, crearemos un almacenamiento compartido (shared storage) e instalaremos un sistema de archivos capaz de trabajar en clúster. Esto es importante ya que si miramos de usar un disco compartido con un sistema de archivos que no tenga capacidades de cluster crearía inconsistencia de datos. Luego veremos un ejemplo.
Este sería el esquema que planteo:
Para crear el disco compartido podríamos basarnos, por ejemplo, en VMWare creando un disco duro virtual con acceso de escritura desde cualquier máquina y luego activar los flags multi-writer. Como el objetivo de este blog no es enseñar a usar características de VMWare, os dejo el enlace para que podáis hacerlo si fuera necesario. Sino, podéis usar una SAN o cualquier otro sistema que conozcáis para compartir almacenamiento.
Por otro lado, necesitamos que el sistema de archivos esté preparado para trabajar con clúster y en esta ocasión trabajaremos con OCFS2. Para instalarlo en nuestro sistema usaremos apt:
Así pues:
apt-get install ocfs2-tools
Si tenéis una versión con escritorio también podeis instalar ocfs2console. Para este tutorial nos basaremos en servidores sin ventanas.
Lo primero que haremos es definir dos nodos que accederán al recurso compartido (disco compartido). Podrían ser tantos nodos como queramos, pero empecemos por dos. También declararemos un cluster que nos servirá para enlazar los nodos:
Creamos el archivo /etc/ocfs2/cluster.conf:
cluster:
node_count = 2
name = ocfs2
node:
ip_port = 7777
ip_address = 192.168.1.100
number = 1
name = node3
cluster = ocfs2
node:
ip_port = 7777
ip_address = 192.168.1.101
number = 2
name = node4
cluster = ocfs2
Es bastante sencillo entender la configuracón. Declaramos un cluster de dos maquinas (node_count = 2) al que llamamos ocfs2 (name = ocfs2). Luego declaramos dos nodos a los que le ponemos la ip que tienen (192.168.1.100 etc), les asignamos un nombre a cada nodo (name = mi_nodo1) y los enlazamos con el cluster definido (cluster = ocfs2). Como nota, deciros que el nombre del cluster 'por defecto' es ocfs2. Podéis cambiarlo, pero tenerlo en cuenta por si algo no os funciona. También tener muy en cuenta el sangrado del archivo. Si no tabulais correctamente el archivo no arrancará el servicio. Os dará un error como este:
Ahora vamos a cambiar un valor en el otro archivo 'importante' de configuración:
/etc/default/o2cb
Debéis cambiar el valor O2CB_ENABLED a true y dejarlo así:
O2CB_ENABLED=true
Esto lo que hará es que se cargue el driver al arrancar el sistema operativo, lo cual con casi toda seguridad es lo que querremos.
Ya lo tenemos listo. Nos quedará reiniciar los servicios para que los cambios se apliquen:
service o2cb restart
service ocfs2 restart
Ahora bien, todo esto lo hemos hecho en un nodo. Para el otro nodo deberemos instalar también el paquete, editar el /etc/ocfs2/cluster.conf y /etc/default/o2cb.
Ahora sólo nos queda formatear el disco compartido (como es compartido, lo hemos de hacer solamente una vez en uno de los nodos) con el sistema de archivos ocfs2. No hace falta particionarlo si vamos a usar todo el disco. Entenderemos que nuestro disco compartido será, para este ejemplo, el /dev/sdb .
root@node3:/etc/ocfs2# mkfs.ocfs2 -b 4k -C 32K -L "Cluster-OCFS2" -N 4 /dev/sdb
mkfs.ocfs2 1.6.4
Cluster stack: classic o2cb
Label: Cluster-OCFS2
Features: sparse backup-super unwritten inline-data strict-journal-super xattr
Block size: 4096 (12 bits)
Cluster size: 32768 (15 bits)
Volume size: 4293918720 (131040 clusters) (1048320 blocks)
Cluster groups: 5 (tail covers 2016 clusters, rest cover 32256 clusters)
Extent allocator size: 4194304 (1 groups)
Journal size: 67108864
Node slots: 4
Creating bitmaps: done
Initializing superblock: done
Writing system files: done
Writing superblock: done
Writing backup superblock: 1 block(s)
Formatting Journals: done
Growing extent allocator: done
Formatting slot map: done
Formatting quota files: done
Writing lost+found: done
mkfs.ocfs2 successful
Para montar el disco compartido podemos editar el /etc/fstab añadiendo:
/dev/sdb /mnt/Cluster-OCFS2 ocfs2 defaults 0 0
y luego hacer mount -a.
Una vez hecho esto podremos ver que ya trabajamos con el cluster definido:
root@node3:/mnt# /etc/init.d/ocfs2 status
Configured OCFS2 mountpoints: /mnt/Cluster-OCFS2
Active OCFS2 mountpoints: /mnt/Cluster-OCFS2
Si montamos el disco compartido en los dos nodos, veremos que lo que vemos y escribimos desde uno tiene visibilidad total en el otro.
Enlaces de interés:
jueves, 28 de abril de 2016
Arreglar 'No ha sido posible iniciar Dropbox' (dropbox permissions error)
Dropbox es un servicio de alojamiento de archivos multiplataforma en la nube, operado por la compañía Dropbox. El servicio permite a los usuarios almacenar y sincronizar archivos en línea y entre ordenadores y compartir archivos y carpetas con otros usuarios y con tabletas y móviles.1 También se puede ejecutar el programa WINISIS de UNESCO administrador de bases de datos textuales2 . Existen versiones gratuitas y de pago, cada una de las cuales tiene opciones variadas. La versión móvil está disponible para Android, Windows Phone, Blackberry e iOS (Apple).
(Fuente Wikipedia)
La clave para arreglar este problema es siempre mirar en el archivo creado en el /tmp y fijarnos en la linea en donde sale el OperationlError. En mi caso (hay muchos otros si buscáis por internet) era este:
OperationalError: user-defined function raised exception
Para arreglar el problema he acudido al típico desinstalar e instalar programa, con el aderezo de que hay que borrar unas carpetas ocultas en tu carpeta personal (que no se encarga el purge). Así pues:
sudo apt-get purge nautilus-dropbox
cd ~
mv .dropbox .dropbox.old
mv .dropbox-dist/ .dropbox-dist.old
sudo apt-get install nautilus-dropbox
(Fuente Wikipedia)
La clave para arreglar este problema es siempre mirar en el archivo creado en el /tmp y fijarnos en la linea en donde sale el OperationlError. En mi caso (hay muchos otros si buscáis por internet) era este:
OperationalError: user-defined function raised exception
Para arreglar el problema he acudido al típico desinstalar e instalar programa, con el aderezo de que hay que borrar unas carpetas ocultas en tu carpeta personal (que no se encarga el purge). Así pues:
sudo apt-get purge nautilus-dropbox
cd ~
mv .dropbox .dropbox.old
mv .dropbox-dist/ .dropbox-dist.old
sudo apt-get install nautilus-dropbox
Luego sales de la sesión, vuelves a entrar y ya te pedirá de validarte en dropbox como una instalación nueva.
martes, 26 de abril de 2016
APT y el mensaje "uses weak digest algorithm (SHA1)"
SHA-1 ha sido examinado muy de cerca por la comunidad criptográfica pública, y no se ha encontrado ningún ataque efectivo. No obstante, en el año 2004, un número de ataques significativos fueron divulgados sobre funciones criptográficas de hash con una estructura similar a SHA-1; lo que ha planteado dudas sobre la seguridad a largo plazo de SHA-1.
SHA-0 y SHA-1 producen una salida resumen de 160 bits (20 bytes) de un mensaje que puede tener un tamaño máximo de 264 bits, y se basa en principios similares a los usados por el profesor Ronald L. Rivest del MIT en el diseño de los algoritmos de resumen de mensaje MD4 y MD5.
(Fuente Wikipedia)
Desde la publicación de la distribución 16.04 LTS, el soporte para SHA-1 en el comando apt esta discontinuado. Así pues, obtenemos este mensaje de advertencia:
W: http://dl.google.com/linux/chrome/deb/dists/stable/Release.gpg: Signature by key 4CCA1EAF950CEE4AB83976DCA040830F7FAC5991 uses weak digest algorithm (SHA1)
No es nada que podamos hacer más que esperar que los encargados del repositorio den una nueva clave con un algoritmo compatible. Tampoco es muy alarmante dado que de momento es un simple 'warning' (pese a que resulta molesto). No existe ningún parámetro en apt tipo --sha1 . Así que simplemente nos queda esperar que se actualicen los repositorios (los oficiales ya estan actualizados).
Más información
- https://bugs.chromium.org/p/chromium/issues/detail?id=596074
- https://lists.debian.org/deity/2016/03/msg00197.html
- http://askubuntu.com/questions/760796/how-to-fix-apt-signature-by-key-uses-weak-digest-algorithm-sha1-after-install
- https://www.symantec.com/en/uk/page.jsp?id=sha2-transition
jueves, 3 de marzo de 2016
Git + Apache + LPAP (no gitweb)
Git (pronunciado "guit"2 ) es un software de control de versiones diseñado por Linus Torvalds, pensando en la eficiencia y la confiabilidad del mantenimiento de versiones de aplicaciones cuando éstas tienen un gran número de archivos de código fuente. Al principio, Git se pensó como un motor de bajo nivel sobre el cual otros pudieran escribir la interfaz de usuario o front end como Cogito o StGIT. 3 Sin embargo, Git se ha convertido desde entonces en un sistema de control de versiones con funcionalidad plena. 4 Hay algunos proyectos de mucha relevancia que ya usan Git, en particular, el grupo de programación del núcleo Linux.
El mantenimiento del software Git está actualmente (2009) supervisado por Junio Hamano, quien recibe contribuciones al código de alrededor de 280 programadores.
Imagen de http://www.danielnavarroymas.com/ |
Nuestra idea es crear un repositorio git en local y después poder acceder a él mediante el protocolo http/s (git over http) con validación en nuestro servidor LDAP.
Así pues vamos paso a paso. Lo primero es crear un repositorio en local. Para ello creamos una carpeta y dentro de ella ejecutaremos git con el parámetro init:
root@eithel-server:/var/www/git# mkdir test.git
root@eithel-server:/var/www/git# cd test.git/
root@eithel-server:/var/www/git/test.git# git init
Initialized empty Git repository in /var/www/git/test.git/.git/
root@samsagaz:/var/www/git/test.git#
Vamos a ver como se ha inicializado nuestro directorio:
Pues muy bien, ya vemos que efectivamente tenemos una carpeta inicializada para poder trabajar con git. Así que hagamos un commit inicial para ver que tal:
root@eithel:/var/www/git/test.git# git add .root@eithel:/var/www/git/test.git# git commit -m 'initial commit'
# En la rama master
#
# Commit inicial
#
nada que hacer (crear/copiar archivos y utilice «git add» para continuar)
Podemos hacer también git status para ver el estado del repositorio.
Pues bien, ya tenemos repositorio funcionando. Ahora queremos acceder por http/s y queremos que nos pida el usuario para que se valide por LDAP.
Vamos a suponer en este artículo que ya tenemos el servidor Apache instalado. Así pues, ahora lo que vamos ha hacer es configurar nuestro git.conf :
SetEnv GIT_PROJECT_ROOT /var/www/git
SetEnv GIT_HTTP_EXPORT_ALL
SetEnv REMOTE_USER=$REDIRECT_REMOTE_USER
ScriptAlias /git/ /usr/lib/git-core/git-http-backend/
<Directory "/usr/lib/git-core*">
Options ExecCGI Indexes
Require all granted
</Directory>
<Directory /var/www/git>
Options ExecCGI Indexes FollowSymLinks
AllowOverride All
Require all granted
</Directory>
<Location /git/test.git/>
DAV on
# SSLRequireSSL
Require all granted
AuthName "GIT Repo"
AuthType Basic
AuthBasicProvider ldap
AuthLDAPURL ldap://ldapserver:389/ou=People,dc=eithel?uid
AuthLDAPGroupAttributeIsDN off
AuthLDAPGroupAttribute memberUid
require user mi_usuario_LDAP
#Satisfy any
</Location>
Por otro lado nos tenemos que asegurar que los módulos de apache que necesitamos esten activos. Esto lo podemos saber haciendo:/usr/sbin/apache2ctl -t -D DUMP_MODULES
Necesitaremos los módulos authnz_ldap_module y ldap_module para la validación con LDAP y los módulos alias_module, env_module, dav_fs y cgi para el funcionamiento del enlace apache-git.
Si entramos en la carpeta del repositorio creado /var/www/git/test.git podemos ver que configuración tiene por defecto.
more config
Si queremos modificar valores podemos usar el comando git con el parámetro config
git config --file config http.receivepack true
git config --bool core.bare true
Por ejemplo podemos configurar el repositorio de esta manera (en este ejemplo dejaríamos modificar la rama principal):
[core]
repositoryformatversion = 0
filemode = true
bare = true
sharedrepository = 1
[receive]
denyNonFastforwards = true
[http]
receivepack = true
Entonces desde el ordenador cliente, por ejemplo, podemos hacer:
cliente@mipc:/# git push origin master
Counting objects: 3, done.
Writing objects: 100% (3/3), 202 bytes | 0 bytes/s, done.
Total 3 (delta 0), reused 0 (delta 0)
To http://ediaz@repository-eithel/git/test.git
* [new branch] master -> master
Ahora según el uso que le vayáis a dar, es cuestión ya de ir configurando el respositorio y el cliente para, por ejemplo, excluir según que tipo de archivos del control de versiones mediante la creación del archivo .gitignore, etc.
jueves, 18 de febrero de 2016
Como solucionar problemas con ST8000AS0002-1NA17Z (8 Tb) en Linux (rsync, dd, cp...)
Si nos hemos comprado el flamante disco duro de Seagate y probado en nuestro Ubuntu (o cualquier otra distribución), veremos que lo detecta sin problemas y que parece funcionar bien. Pero como los que compramos este tipo de discos es porque probablemente lo queremos para soluciones de respaldo (backup), sabremos que al hacer rsync, dd, cp o cualquier otra instrucción contra este disco, hace que el kernel de un error y se nos queda en modo lectura (read-only). Un ejemplo de lo que podemos ver en el syslog es este:
Feb 10 08:57:59 eithel-server kernel: [149638.596415] ------------[ cut here ]------------
Feb 10 08:57:59 eithel-server kernel: [149638.596441] WARNING: CPU: 3 PID: 8153 at /build/linux-lts-vivid-whAhIw/linux-lts-vivid-3.19.0/fs/btrfs/super.c:260 __btrfs_abort_transaction+0x54/0x130 [btrfs]()
Feb 10 08:57:59 eithel-server kernel: [149638.596443] BTRFS: Transaction aborted (error -5)
Feb 10 08:57:59 eithel-server kernel: [149638.596444] Modules linked in: nouveau mxm_wmi wmi video ttm drm_kms_helper drm snd_hda_codec_hdmi i2c_algo_bit intel_powerclamp snd_hda_codec_via snd_hda_codec_generic snd_hda_intel coretemp snd_hda_controller snd_hda_codec kvm_intel snd_hwdep kvm snd_pcm snd_timer snd soundcore serio_raw shpchp 8250_fintek lpc_ich asus_atk0110 mac_hid lp parport btrfs xor raid6_pq pata_acpi psmouse r8169 ahci libahci mii pata_via
Feb 10 08:57:59 eithel-server kernel: [149638.596462] CPU: 3 PID: 8153 Comm: kworker/u32:29 Tainted: G I 3.19.0-25-generic #26~14.04.1-Ubuntu
Feb 10 08:57:59 eithel-server kernel: [149638.596463] Hardware name: System manufacturer System Product Name/P7P55 LX, BIOS 1102 01/03/2011
Feb 10 08:57:59 eithel-server kernel: [149638.596475] Workqueue: btrfs-extent-refs btrfs_extent_refs_helper [btrfs]
Feb 10 08:57:59 eithel-server kernel: [149638.596476] ffffffffc041ef40 ffff880002687c28 ffffffff817aed00 0000000000000000
Feb 10 08:57:59 eithel-server kernel: [149638.596478] ffff880002687c78 ffff880002687c68 ffffffff81074d8a 0000000102687c68
Feb 10 08:57:59 eithel-server kernel: [149638.596479] ffff880118f071e0 ffff8800d3c7b000 00000000fffffffb ffffffffc041b0b0
Feb 10 08:57:59 eithel-server kernel: [149638.596481] Call Trace:
Feb 10 08:57:59 eithel-server kernel: [149638.596489] [
Feb 10 08:57:59 eithel-server kernel: [149638.596493] [
Feb 10 08:57:59 eithel-server kernel: [149638.596495] [
Feb 10 08:57:59 eithel-server kernel: [149638.596501] [
Feb 10 08:57:59 eithel-server kernel: [149638.596508] [
Feb 10 08:57:59 eithel-server kernel: [149638.596516] [
Feb 10 08:57:59 eithel-server kernel: [149638.596527] [
Feb 10 08:57:59 eithel-server kernel: [149638.596537] [
Feb 10 08:57:59 eithel-server kernel: [149638.596540] [
Feb 10 08:57:59 eithel-server kernel: [149638.596541] [
Feb 10 08:57:59 eithel-server kernel: [149638.596543] [
Feb 10 08:57:59 eithel-server kernel: [149638.596546] [
Feb 10 08:57:59 eithel-server kernel: [149638.596548] [
Feb 10 08:57:59 eithel-server kernel: [149638.596552] [
Feb 10 08:57:59 eithel-server kernel: [149638.596553] [
Feb 10 08:57:59 eithel-server kernel: [149638.596555] ---[ end trace ce5daf4bc8891b5b ]---
Feb 10 08:57:59 eithel-server kernel: [149638.596557] BTRFS: error (device sde1) in btrfs_run_delayed_refs:2792: errno=-5 IO failure
Feb 10 08:57:59 eithel-server kernel: [149638.596680] BTRFS info (device sde1): forced readonly
En el ejemplo anterior vemos que he usado el sistema de archivos btrfs. Pues no os preocupeis, no es por el sistema de archivos. El mismo problema te dara cambiando las opciones de montaje del btrfs o probándolo con cualquier otro sistema de archivos ( ext2/3/4, jfs, zfs, xfs, ... ) a excepción de NTFS. Con NTFS no pasa. Podeis hacer vuestras pruebas y con casi total seguridad llegaréis a la misma conclusión.
Y.. ¿ahora que? Bueno, la clave esta en saber que el problema es de nuestro kernel. Así que actualizamos nuestro ubuntu 15.10 (wily) desde el repositorio para ver si lo arregla y seguimos sin arreglarlo:
Linux MiMaquina 4.2.0-27-generic #32-Ubuntu SMP Fri Jan 22 04:49:08 UTC 2016 x86_64 x86_64 x86_64 GNU/Linux
Entonces ya podemos empezar a caer en la desesperación. Pero aun no esta todo perdido. Podemos mirar de ir más allá del kernel oficial de nuestro repositorio y bajarnos una actualización mayor. Para ello seguiremos el artículo ya publicado:
Una vez actualizado el sistema veremos que ya todos nuestros problemas han acabado y que el disco no se pone en sólo lectura al hacer rsync, dd o cp de gran cantidad de archivos.
Si queremos estar seguros de nuestro modelo de disco duro podemos utilizar los parámetros de hdparm según el artículo publicado anteriormente:
miércoles, 17 de febrero de 2016
Actualizar kernel de Ubuntu a 4.4.* desde paquetes
Si queremos estar a la última con nuestro kernel tenemos siempre la opción de descargarnos las fuentes y compilar el último. Pero esta tarea siempre puede ser trabajosa y necesitamos una solución más rápida. Para ello tenemos kernel.ubuntu.com que nos proporciona los últimos kernels en versión .deb para que los podamos instalar para nuestra distribución sin problemas.
Yo os aconsejo mirar http://kernel.ubuntu.com/~kernel-ppa/mainline/ y comprobar cual es la ultima versión disponible (stable). A la hora de redactar este artículo la última versión era la 4.4.1 . Adaptarla a vuestras necesidades.
¿Como procedo? Primero nos descargamos los paquetes necesarios:
Versión 64bits:
$ cd /tmp
$ wget \
kernel.ubuntu.com/~kernel-ppa/mainline/v4.4.1-wily/linux-headers-4.4.1-040401_4.4.1-040401.201601311534_all.deb \
kernel.ubuntu.com/~kernel-ppa/mainline/v4.4.1-wily/linux-headers-4.4.1-040401-generic_4.4.1-040401.201601311534_amd64.deb \
kernel.ubuntu.com/~kernel-ppa/mainline/v4.4.1-wily/linux-image-4.4.1-040401-generic_4.4.1-040401.201601311534_amd64.deb
Versión 32bits:
$ cd /tmp
$ wget \
kernel.ubuntu.com/~kernel-ppa/mainline/v4.4.1-wily/linux-headers-4.4.1-040401_4.4.1-040401.201601311534_all.deb \
kernel.ubuntu.com/~kernel-ppa/mainline/v4.4.1-wily/linux-headers-4.4.1-040401-generic_4.4.1-040401.201601311534_i386.deb \
kernel.ubuntu.com/~kernel-ppa/mainline/v4.4.1-wily/linux-image-4.4.1-040401-generic_4.4.1-040401.201601311534_i386.deb
Luego simplemente instalamos estos paquetes:
sudo dpkg -i linux-headers-4.4*.deb linux-image-4.4*.deb
Si por cualquier razón decidieramos desinstalar el kernel, se hace comúnmente con el comando apt-get remove:
$ sudo apt-get remove linux-headers-4.4* linux-image-4.4*
jueves, 11 de febrero de 2016
Nombres de Interfaz de Red Predictivos (cambios de eth0 a enp2s0, etc)
systemd es un conjunto de demonios o daemons de administración de sistema, bibliotecas y herramientas diseñados como una plataforma de administración y configuración central para interactuar con el núcleo del Sistema operativoGNU/Linux. Descrito por sus autores como un "bloque de construcción básico" para un sistema operativo,4 systemd se puede utilizar como un sistema de inicio de Linux (el proceso init llamado por el núcleo o kernel de Linux para inicializar el espacio de usuario durante el proceso de arranque de Linux y gestionar posteriormente todos los demás procesos). El nombre systemd se adhiere a la convención Unix de distinguir los demonios fácilmente por tener la letra d como la última letra del nombre de archivo.5
Se desarrolló systemd para reemplazar el sistema de inicio (init) heredado de los sistemas operativos estilo UNIXSystem V y Berkeley Software Distribution (BSD). En el proceso de arranque en Linux, es el primer proceso que se ejecuta en el espacio de usuario, por lo tanto, también es el proceso padre de todos los procesos hijos en el espacio de usuario. systemd se diseñó para el núcleo de Linux y programado exclusivamente para la API de Linux. Escrito porLennart Poettering1 y se publica como Software_libre_y_de_código_abierto bajo los términos de laGNU_General_Public_License (LGPL) versión 2.1 o posterior.6 Uno de los principales objetivos de systemd es unificar configuraciones básicas de Linux y los comportamientos de servicios en todas las distribuciones.7
(Fuente Wikipedia)(Fuente freedesktop.org)
¿Y que tiene que ver todo esto con que ahora mi interfaz de red se llame enp2s0 o enx78e7d1ea46da en vez de eth0? Pues bien, todo esto es a causa de la nueva versión de systemd. Una modificación en este gestor de demonios que afecta a partir de la versión 197. A partir de dicha versión, systemd/udev asigna automáticamente los nombres de interfaz de red para Ethernet, WLAN y WWAN. Desde esta modificación se ha optado por una nomenclatura segun las características físicas (hardware):
1. Nombres que incorporan información del Firmware o BIOS del hardware (ejemplo:ENO1).
2. Nombres que incorporan información del Firmware o BIOS que proporciona el slot PCI Express (ejemplo: ens1)
3. Nombres que incorporan ubicación física del conector (ejemplo: enp2s0)
4. Nombres que incorporan la dirección MAC de las interfaces (ejemplo:enx78f8d1ea46da)
5. El estilo clásico del kernel (ejemplo: eth1)
(Fuente detrás del pingüíno y freedesktop.org)
Sabiendo esta información, vamos a dejar de quejarnos del cambio de nombre (porque despues de tantos años es un cambio al que seguro somos algo reacios) y vamos a empezar a 'jugar'. Vamos a averiguar que entiende udev de nuestro dispositivo de red (por ejemplo, eth0):
eithel@inside:~$ udevadm info -e | grep -A 9 ^P.*eth0
P: /devices/pci0000:00/0000:00:1c.2/0000:04:00.0/net/eth0
E: DEVPATH=/devices/pci0000:00/0000:00:1c.2/0000:04:00.0/net/eth0
E: ID_BUS=pci
E: ID_MM_CANDIDATE=1
E: ID_MODEL_FROM_DATABASE=RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (P8P67 and other motherboards)
E: ID_MODEL_ID=0x8168
E: ID_NET_DRIVER=r8169
E: ID_NET_LINK_FILE=/lib/systemd/network/99-default.link
E: ID_NET_NAME=enp4s0
E: ID_NET_NAME_MAC=enxf46d04ae330e
Vale.... pero esto de que es predictivo.... ¿Por que? . Bueno, porque ahora tenemos que entender que significa el nombre que le ha dado. Esto lo podemos ver en las fuentes src/udev/udev-builtin-net_id.c
en donde veremos que significa cada cosa:
/*
* Predictable network interface device names based on:
* - firmware/bios-provided index numbers for on-board devices
* - firmware-provided pci-express hotplug slot index number
* - physical/geographical location of the hardware
* - the interface's MAC address
*
* http://www.freedesktop.org/wiki/Software/systemd/PredictableNetworkInterfaceNames
*
* Two character prefixes based on the type of interface:
* en -- ethernet
* sl -- serial line IP (slip)
* wl -- wlan
* ww -- wwan
*
* Type of names:
* b -- BCMA bus core number
* ccw -- CCW bus group name
* o[d] -- on-board device index number
* s[f][d] -- hotplug slot index number
* x -- MAC address
* [P]ps[f][d]
* -- PCI geographical location
* [P]ps[f][u][..][c][i]
* -- USB port number chain
Podemos comprobar mediante lspci que efectivamente alli tengo una tarjeta de red:
lspci -s 04:00
04:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (rev 06)
*He buscado 04:00 ya que la salida de udevadm de más arriba, en la linea que empezaba por P: así me indicaba donde encontrarlo.
Bueeeno, pues ahora ya esta. Ya se como funciona. Pero puedo decidir no usar la nueva nomenclatura. ¿Puedo cambiarlo? . La respuesta es, como casi todo en GNU/Linux, que si. Vamos a ver como :
1.- Deshabilitando el enlace de asignaciones a nombres fijos:
ln -s /dev/null /etc/udev/rules.d/80-net-setup-link.rules
2.- Crearse tu propio esquema de nombrado. Esto lo haremos un archivo .link en /etc/systemd/network . Para ello mirad systemd.link(5)
3.- Decirle al kernel que no lo use mediante el parámetro net.ifnames=0 en /etc/default/grub:
GRUB_CMDLINE_LINUX_DEFAULT="net.ifnames=0 biosdevname=0"
y luego actualizar grub mediante sudo update-grub
Espero que os haya ayudado a entender el porqué del cambio, como aprovecharse de las nuevas funcionabilidades y, en caso de que no estemos agusto o por compatibilidades de scripts, etc no podamos usarlo, como deshabilitarlo.
Enlaces de interes
- https://www.freedesktop.org/wiki/Software/systemd/
- https://es.wikipedia.org/wiki/Freedesktop.org
em
N
- Ethernet interface on the motherboard, where
N
is the number of the interface starting from 1. p
S
p
P
- Network interface on a PCI card, where
S
is the slot number andP
is the port number. p
S
p
P
_
V
- Virtual interface, where
S
is the slot number,P
is the port number, andV
is the virtual interface number.
If
biosdevname
is set to 0 (the default), systemd
naming assigns the prefixes, en
, wl
, and ww
to Ethernet, wireless LAN, and wireless WAN interfaces respectively. The prefix is followed by a suffix based on the hardware configuration, system bus configuration, or MAC address of the device:o
N
- Onboard device with index number
N
. p
B
s
S
[f
F
][d
D
]- PCI device with bus number
B
, slot numberS
, function numberF
, and device IDD
. p
B
s
S
[f
F
][u
P
]...[c
C
][i
I
]- USB device with bus number
B
, slot numberS
, function numberF
, port numberP
, configuration numberC
, and interface numberI
. s
S
[f
F
][d
D
]- Hot-plug device with slot number
S
, function numberF
, and device IDD
. x
M
- Device with MAC address
M
.
lunes, 8 de febrero de 2016
hdparm: Parametrizar tu disco duro
hdparm es una utilidad de línea de comandos de los sistemas operativos GNU/Linux y Windows para ver y ajustar los parámetros del hardware de los discos IDE ySATA1 (aunque estos últimos cuentan también con una utilidad específica llamada sdparm). La utilidad puede ajustar parámetros como el caché de disco, el modo de descanso, el control de energía, la gestión acústica y los ajustes DMA. Suele venir instalado por defecto en la mayoría de distribuciones GNU/Linux.
Cambiar los parámetros de los valores conservativos por defecto a los ajustes óptimos puede aumentar el rendimiento sustancialmente. Por ejemplo, activar el modoDMA puede hacer que en ocasiones se doble o se triplique la velocidad de transferencia de datos. Desgraciadamente no hay un método confiable para determinar los ajustes óptimos para la combinación de una controladora determinada, excepto el método de prueba y error; además, todavía no hay una base de datos central que recolecte y comparta la experiencia de los usuarios de hdparm.
hdparm tiene un serio inconveniente: puede bloquear el sistema y hacer los datos del disco duro inaccesibles si se usan inadecuadamente ciertos parámetros. De aproximadamente unos cuarenta parámetros disponibles, siete son potencialmente peligrosos y pueden ocasionar una corrupción masiva del sistema de ficheros.
(Fuente Wikipedia)
¿Para que podemos querere configurar nuestro disco duro? ¿No es ya suficiente que este funcionando y sin errores?. La respuesta es casi siempre que si. Podemos dejarlo por defecto y en la mayoría de los casos no vamos a quejarnos.... seguramente por desconocimiento. ¿Hace falta engrasar y cuidar la cadena de una bicicleta? Bien.. si vamos solo de vez en cuando con ella, quizas no nos interesa sacarle un buen rendimiento. Pero si lo que queremos es más velocidad, más rendimiento.. entonces nos interesa dar un pasito más y configurarlo. Podemos ganar velocidad de escritura/lectura o incluso ahorrar energia y alargar la vida de nuestro disco. Eso si, hdparm trabaja a un nivel muy bajo, y si lo configuramos mal podemos dejar nuestro disco duro inaccesible.
Esta guía esta realizada bajo mi experiencia pero no me responsabilizo de daños ocasionados por su uso.
Podemos instalar hdparm facilmente desde nuestro repositorio oficial (apt-get install hdparm).
Podemos instalar hdparm facilmente desde nuestro repositorio oficial (apt-get install hdparm).
Para los ejemplos usaremos el dispositivo /dev/sda . Vosotros cambiarlo por el que queráis optimizar.
Primeramente vamos a mirar como está funcionando nuestro disco:
Tenemos esta tabla para saber que significa en métrica cada tipo de DMA y PIO:
(Fuente Wikipedia)
(Fuente Wikipedia)
VELOCIDAD
Ahora vamos a mirar el caso de que queramos incrementar la velocidad de lectura/escritura. Veremos en la información extraída con el parámetro '-I' una linea que habla de R/W multiple sector transfer. Bien, pues esta linea nos va a dar la pista de si podemos o no incrementar la velocidad de nuestro disco.
R/W multiple sector transfer: Max = 16 Current = ?
Si queremos poner la transferencia multiple de sectores al máximo, en el ejemplo anterior nos fijamos en el valor 'Max' y hacemos lo siguiente:
hdparm -m16 /dev/sda
(hemos puesto 16 dado que es el valor Máximo segun la especificacion de nuestro dispositivo).
hdparm.conf
En /etc/hdparm.conf podemos configurar como queremos que funcionen nuestros discos en el arranque. Por defecto en Ubuntu viene todo comentado excepto la linea 'quiet'. Así pues, lo que nos quiere decir esto es que ubuntu tiene unas opciones ya por defecto y aquí es donde las podemos cambiar si deseamos un comportamiento diferente. Leerse el archivo este es lo más similar a hacer man hdparm.
AHORRO DE ENERGIA Y VIDA DEL DISCO
Los fabricantes de disco suelen especificar cuantas veces un disco duro puede ser apagado y encendido durante su vida util. Unas 200.000 veces, por decir un estandard. Eso significa que si lo encendemos y apagamos unas 200.000 veces.. podremos agotar su vida util. 200.000 veces, con una vida de disco duro de 5 años, significaría 40.000 apagadas y encendidas por año, osea unas 109 veces en un dia. Ten en cuenta estos cálculos para saber si el apagado/encendido te sale a cuenta.
Si decidimos que SI sale a cuenta, podemos especificar un tiempo de inactividad minimo para que se apagen automáticamente. Por ejemplo:
sudo hdparm -S 24 /dev/sda
Primeramente vamos a mirar como está funcionando nuestro disco:
hdparm /dev/sda
/dev/sda:
multcount = 0 (off)
IO_support = 1 (32-bit)
readonly = 0 (off)
readahead = 256 (on)
geometry = 486401/255/63, sectors = 7814037168, start = 0
Para sacar toda la información completa y detallada del disco:
Significado de algunas de estas variables:
DMA
Mediante este comando podremos saber si nuestro disco tiene UDMA activado (activado por defecto desde Ubuntu 6.06)
* soporte DMA:
sudo hdparm -I /dev/sda |grep ‘DMA:’
por ejemplo:
DMA: mdma0 mdma1 mdma2 udma0 udma1 udma2 udma3 udma4 udma5 *udma6
También podemos hacerlo mediante:
hdparm -d /dev/sda
hdparm -I /dev/sda
Significado de algunas de estas variables:
- multicount: Nº de sectores que se leen en cada acceso.
- IO_support: 16/32 bits.
- unmakirq: Desemascarar IRQ del disco. Permite “compartir” la IRQ.
- using_dma: Acceso directo a memoria.
Mediante este comando podremos saber si nuestro disco tiene UDMA activado (activado por defecto desde Ubuntu 6.06)
* soporte DMA:
sudo hdparm -I /dev/sda |grep ‘DMA:’
por ejemplo:
DMA: mdma0 mdma1 mdma2 udma0 udma1 udma2 udma3 udma4 udma5 *udma6
(El tipo de DMA que vemos con un asterisco es el que se activa en el arranque del sistema)
También podemos hacerlo mediante:
hdparm -d /dev/sda
Tenemos esta tabla para saber que significa en métrica cada tipo de DMA y PIO:
Mode | Number | Also called | Maximum transfer
rate (MB/s)
| Defining standard |
---|---|---|---|---|
Ultra DMA | 0 | 16.7 | ATA-4 | |
1 | 25.0 | ATA-4 | ||
2 | Ultra ATA/33 | 33.3 | ATA-4 | |
3 | 44.4 | ATA-5 | ||
4 | Ultra ATA/66 | 66.7 | ATA-5 | |
5 | Ultra ATA/100 | 100 | ATA-6 | |
6 | Ultra ATA/133 | 133 | ATA-7 | |
7 | Ultra ATA/167 | 167 | CompactFlash 6.0[1] |
Mode | Maximum transfer rate (MB/s) | Minimum cycle time | Standard where spec is defined |
---|---|---|---|
Mode 0 | 3.3 | 600 ns | ATA-1 |
Mode 1 | 5.2 | 383 ns | ATA-1 |
Mode 2 | 8.3 | 240 ns | ATA-1 |
Mode 3 | 11.1 | 180 ns | ATA-2 |
Mode 4 | 16.7 | 120 ns | ATA-2 |
Mode 5 | 20 | 100 ns | CompactFlash 2.0 |
Mode 6 | 25 | 80 ns | CompactFlash 2.0 |
VELOCIDAD
Ahora vamos a mirar el caso de que queramos incrementar la velocidad de lectura/escritura. Veremos en la información extraída con el parámetro '-I' una linea que habla de R/W multiple sector transfer. Bien, pues esta linea nos va a dar la pista de si podemos o no incrementar la velocidad de nuestro disco.
R/W multiple sector transfer: Max = 16 Current = ?
Si queremos poner la transferencia multiple de sectores al máximo, en el ejemplo anterior nos fijamos en el valor 'Max' y hacemos lo siguiente:
hdparm -m16 /dev/sda
(hemos puesto 16 dado que es el valor Máximo segun la especificacion de nuestro dispositivo).
hdparm.conf
En /etc/hdparm.conf podemos configurar como queremos que funcionen nuestros discos en el arranque. Por defecto en Ubuntu viene todo comentado excepto la linea 'quiet'. Así pues, lo que nos quiere decir esto es que ubuntu tiene unas opciones ya por defecto y aquí es donde las podemos cambiar si deseamos un comportamiento diferente. Leerse el archivo este es lo más similar a hacer man hdparm.
AHORRO DE ENERGIA Y VIDA DEL DISCO
Los fabricantes de disco suelen especificar cuantas veces un disco duro puede ser apagado y encendido durante su vida util. Unas 200.000 veces, por decir un estandard. Eso significa que si lo encendemos y apagamos unas 200.000 veces.. podremos agotar su vida util. 200.000 veces, con una vida de disco duro de 5 años, significaría 40.000 apagadas y encendidas por año, osea unas 109 veces en un dia. Ten en cuenta estos cálculos para saber si el apagado/encendido te sale a cuenta.
Si decidimos que SI sale a cuenta, podemos especificar un tiempo de inactividad minimo para que se apagen automáticamente. Por ejemplo:
sudo hdparm -S 24 /dev/sda
El disco se apagará después de 24*5=120 segundos de inactividad
sudo hdparm -Y /dev/sda
sudo hdparm -Y /dev/sda
El disco entrará en apagado inmediátamente, causando el apagado del disco. Se necesita un reset por software o hardware para iniciarlo de nuevo. El driver IDE de Linux lo hará si se necesita de forma automática.
Ahora seguramente querremos comprobar que estamos en 'Sleep Mode'. Haremos lo siguiente para comprobarlo:
hdparm -Y /dev/sda1
/dev/sda1:
issuing sleep command
hdparm -C /dev/sda/dev/sdb1:
drive state is: standby
ERRORES FRECUENTES:
hdparm -d /dev/sdg
/dev/sdg:
HDIO_GET_DMA failed: Inappropriate ioctl for device
El comando hdparm, como hemos puesto al inicio de este artículo, se diseñó para dispositivos IDE. Por tanto, hay nomenclaturas que estan obsoletas. En este caso, la opción -d solo funciona sobre dispositivos IDE.
drive state is: standby
Pero tambien hay casos en el que hacer esta prueba justamente lo que hace es levantarnos el disco y sacarnos del modo de apagado. Básicamente al conectar con él para ver su estado, lo sacamos de su letargo. Para comprobarlo podemos mirar el /var/log/syslog y si una vez lo teníamos en sleeping mode, lo levantamos y vemos algo como "ata3.00: waking up from sleep" significará que lo hemos despertado (por lo tanto antes estaba dormido).
En cambio si lo dejamos en 'standby' eso no pasa. Porque dejamos el disco encendido, pero con energía al mínimo:
hdparm -y /dev/sdb1
/dev/sdb1:
issuing standby command
Para ello hay quien recomienda smartctl. Para ello tendremos que instalarnos la utilidad (apt-get install smartmontools):
smartctl -i -n standby /dev/sda
Pero podemos usar como antes nuestro comando hdparm:
hdparm -C /dev/sdb
/dev/sdb:
drive state is: standby
Recordad que si queremos mirar o configurar una serie de discos que tengamos en el servidor, podemos hacerlo o uno a uno o con un comando solo. Imaginemos que tenemos desde el /dev/sdb al /dev/sdg :
hdparm -C /dev/sd[b-g]
/dev/sdb:
drive state is: standby
/dev/sdc:
drive state is: active/idle
/dev/sdd:
drive state is: active/idle
/dev/sde:
drive state is: active/idle
/dev/sdf:
drive state is: active/idle
/dev/sdg:
drive state is: active/idle
O si son discos salteados:
hdparm -Y /dev/sd{b,g,f,e,d}
/dev/sdb:
issuing sleep command
/dev/sdg:
issuing sleep command
/dev/sdf:
issuing sleep command
/dev/sde:
issuing sleep command
/dev/sdd:
issuing sleep command
hdparm -d /dev/sdg
/dev/sdg:
HDIO_GET_DMA failed: Inappropriate ioctl for device
Suscribirse a:
Entradas (Atom)