Linux para la All in One

Con el reciente sobrecalentamiento de mi Latop Dell Inspiron 1525, y la probable necesidad de usar Oracle además de hacer unas pruebas del sitio web derivado del trabajo en el corporativo, voy a necesitar otra pc, por lo menos de manera temporal, debido a que la LG netbook no es precisamente lo mas sano para resolución, y por razones evidentes (1 gb memoria) no acepta máquinas virtuales.

Así que por una o dos semanas, tendré que sacar del baul de los recuerdos otro hardware decente que tengo de escritorio.

Tanto mi esposa como yo usamos unas pc Hp con monitor de 23 pulgadas, pero ese equipo no vale la pena llevarlo al trabajo debido a que es incomodo llevar tanto cpu como monitor, y no le veo caso tampoco a llevar mi antigua pc armada de hace tres años que tuvo problemas con la fuente de poder.

Pensé que lo mas adecuado era sacar la otra pc de escritorio, que compramos hace unos meses para presentar un demo relacionado con el sistema de eventos del cliente que nunca pagó a una de las PYMES (no recuerdo si lo puse aquí pero por abril del 2010 un cliente pidió adecuaciones al sistema de control de booking para un evento en el world trade center, el sistema funcionó perfecto pero el cliente nunca pagó mas allá del anticipo porque se quedó sin dinero por hacer evento en el WTC sin tener con que seguir su operación).

El caso es que para aquellas circunstancias se necesitaba una PC compacta, por el problema del espacio reducido. Alla por el 2003 , antes que se vendieran las farmacias que eran mis clientes, lo que les instalaba yo era una similar a esta : http://reviews.cnet.com/desktops/hp-e-pc-c10/1707-3118_7-3963972.html

Notese que esas pc, eran bastante compactas y el problema era el monitor.

Así que en el 2010 , acabé comprando algo similar a esto :
http://nexcomputermedellin.blogspot.com/2011/12/computador-hp-pavilion-todo-en-uno-omni_22.html

En su momento elegí un modelo muy parecido (el procesador es un poco peor, y solo 750gb en lugar de un tera), de dos modelos que habían: El otro era con procesador AMD y con mas opción de subir memoria pero costaba 2000 menos, así que me fui por el Intel que en el tiempo que lo usé funcionó muy bien.

Hace un rato la saqué de su caja, reconoció de inmediato la red de la casa (alámbrica: Por seguridad y rendimiento no uso wireless), y empecé a chcar todos mis linux para hacer una partición. El hecho de tener SATA y no IDE descarta muchas de las distro antiguas, así que limité a las standard recientes.

Ubuntu 8.10 si ararnca sin problemas, pero no detecta la tarjeta de red. La resolución no se ve precisamente bien pero funciona (pruebas mas adelante, otro día). Decidí no instalarla porque mi USB de arraqnue de Karmic Koala y oh sorpresa, se paraliza despues de elegir el idioma. Lo mismo me pasó con Ubuntu 11.04 (Natty Narwhal), Wolvix de plano no jaló y Backtrack si pero no necesito herramientas tipo wireshark sino una pc para máquinas virtuales.

Así que me pasé a Mint. Julia (nombre de una distro de Mint) de plano no arrancó y el cd de ISADORA (otra de Mint pero anterior) si jaló pero con 800 * 600, aunque reconoció todo a la primera. Tendré que buscar el driver mas adelante.

Creo que aunque no es una pc de primera, es lo suficientemente poderosa para resolver el problema temporal de lo que la LG no puede hacer. No es demasiado voluminosa, y el monitor de 20 pulgadas puede servir para lo que voy ahacer.

Sin embargo, es posible que termine poniendole un Ubuntu además del MINT (que es derivado de Ubuntu), porque sé que ISADORA tenía problemas con drivers antiguosde video, pero esta pc no debería de tener problemas, y no le veo el caso de regresar a Helena (Mint anterior a Isadora).

Trataré de instalar entonces a Karmic Koala si puedo actualizarlo desde Intrepid Ibex (8.1), y quedarán Isadora, Windows 7 por el excel y word gratis del starter, y por ultimo Un Karmic Koala.

Espero tener tiempo y en un «descanso» de mañana, que será un dia pesado, explicar porqué necesito probar en máquinas virtuales algo del corporativo. Básicamente se necesita pruebas simultáneas rápidas entre diferentes cofiguraciones de internet explorer vs windows xp, para evita rque ciertos clientsdigan de problemas al descargar mediante SSL su resultado.

De todos modos no me parece práctica la solución alterna: Eliminar todos los caché pragma y usar un limiter de php indocumentado. Creo que a la larga es una acción peligrosa el tratar de dar soporte a todas las versiones de explorer desde la 6, sobre todo por nuestro tipo de software y los problemas queviene arrastrando dese hace años el internet explorer con SSL para descarga de archivos, sin considerar los problemas de no parcheo con windows update en las pc de nuestros clientes.

Adios Hsphere

Hace unos dias tuve una persona de una razón social que le recomendaron a una de las Pyme, con un problema. No podia ver su correo. Despues de varios dimes y diretes, decidi cambiarla de servidor y al hacerlo, descubri que los respaldos de hsphere ya no pueden generarse desde la pc de uno y su webpanel. Es una estupidez que afecta a los que somos responsables, y considerando los otros detalles que tiene hsphere, o mejor dicho, el proveedor que manejo que es uno de los dos existentes con precios decentes, decidi mandar ese panel de control al baul de los recuerdos y estare trabajando solamente con una plataforma.

Empece a contactar a todos los clientes de ese server, y afortunadamente o desafortunadamente, una de ellas que era buena pagadora me comento que contrato un server ilimitado en otro lugar. Servers ilimitados son imposibles así que no dije nada y le desee buena suerte, y le ofreci un plan de tres meses para que configure el server nuevo aunque ofreció pagarme un año como los seis años anteriores.

Ya me pago los tres meses, y pensandolo bien creo que llevaba casi ocho años con hsphere, pero ya no se puede por las limitaciones diversas que esta poniendo el proveedor: lo malo es que aunque parece la solución ideal, en realidad esas limitaciones me impiden incluso poner un drupal en esa plataforma. me falta migrar un cliente que ya me dijo que si lo cambie a la otra plataforma, y otro no contesta, pero si es solo un cliente el que se queda tengo siempre la solución de nameservers redireccionados.

Lo que si se es que debo replantearme un poco el futuro de la tecnología porque hay varias implicaciones idiotas , que van desde la cliente que no puede abrir un webmail simple, hasta los problemas con el marketing que tratan de hacer con el corporativo donde trabajo, lo que indica que a esa unidad le esperan problemas por no entender lo básico.

Proveedores de servers

Hace unos tres años la mayor parte de los proveedores de servers dedicados y VPS con los que tenía contacto., cambiaron mucho. Sin embargo, por estas fechas, se ha estabilizado y conozco tres proveedores decentes. Como resultado de los cambios de la dichosa base de datos, la semana pasada hice cambios en el server de las razones sociales relacionadas con Ojos Alerta AC, y ya quedó.

Luego le pedí al personal de otro juego de servers, en Servint que hiciera lo mismo, y creo que no lo saben hacer o no tienen la misma estructura a prueba de fallos.

Estoy esperando a que se acaben de propagar los nameservers, pero por ahora lo que veo en las cabeceras del panel de control es el nameserver antiguo. Esto me preocupa porque si no se propaga para mañana no podré hacer el siguiente paso del cambio; también noté que el proveedor me removió el acceso a SSH, o no está ligado al password de los dedicados. Asi que aunque todos los servers de ese proveedor tienen el mismo password de 24 caracteres aleatorios, no puedo usar el SSH, y ya probé con herramientas diferentes a putty.

Mi primer instinto es cambiar de proveedor, pero la experiencia me dice que puedo observar dos días mas.

Y por otro lado se que es mejor tener por lo menos dos provedores de ese tipo, y ellos, servint, son el segundo mejor.

Cambios de estructura

Pasé la semana pasada haciendo ajustes sobre el sistema de certificados SSL del trabajo. Por recomendación que hice hace unos meses, se autorizó la compra de un wildcard SSL, pero eso tuvo bastantes problemas de configuración por parte del servidor híbrido que se esta utilizando, sobre todo cuando consideramos que se migró toda la información.

Hoy ha terminado desde el punto de vista del trabajo, todo el problema que aquejó unos meses. Solamente envié el correo acerca de los cambios que voluntariamente a fuerzas debemos hacer en uno o dos meses. A partir de mañana solamente me falta cerrar unos cabos sueltos del server lobonegro, y después que se propaguen supongo que queda resumido el viernes. Desgraciadamente me voy a ver forzado para evitar conflictos con los certificados intermedios del trabajo, que deben coexistir unos dos meses con los certificados intermedios propios, de algunos clientes, a contratar un certificado simple, no wildcard, para el servidor cpanel que usaré como gateway o puente.

Al mismo tiempo, al estar en contacto con personas de mi pasado por otro asunto, tanto compañeros de trabajo que tienen problemas de seguridad hasta la madre de mis hijos, me doy cuenta que el problema básico que los ha metido en problemas es el tratar de evadir responsabilidades, para reducir costos o mejorar su autoestima. No es culpa mía que varios años después, quien fuera mi jefe en equis lugar, no acaba de entender porquè los servidores que yo configuro funcionan y los que configura su gente de mitad de sueldo no soportan un simple DDOS y se bloquean por los XML-RPC mal hechos. El problema es del Receptor XML-RPC, de entrada.

A final de cuentas es solamente que la búsqueda del bienestar inmediato, en lugar del aprendizaje y PRACTICA de actividades laborales especializadas les pasan la factura.

Todología

El sistema desarrollado para clientes pequeños de 100 articulos maximos, tarda 40 segundos en un entorno de 600 articulos en ese cliente, en un server con load de 3. Y se quejan.

¿Porque no lo mandan al sistema grande?

¿Porque usan 200 ftp simultaneas?

¿porque permiten un load arriba de uno constante?

Sin comentarios.

Parser de JSON y pesadillas de código arbitrario.

Las dos ultimas semanas han estado saturadas de trabajo. Por lo general duermo muy poco pero esta semana dos ocasiones seguidas he dormido menos de lo común.

Por otra parte, he estado realizando un cliente de JSON y el universo de bases de datos es de un gb y medio actualizandose cada 20 minutos. Si me descarga la cabecera de código last modified, lo que me evita descargas de más.

Sigo probando ideas de servers al mismo tiempo. Y me acordé hace rato de algo , de una incomodidad fuerte en sueños allá por el domingo: Aunque pràcticamente no sueño, uno de esos días tuve una pesadilla de código arbitrario bajo el JSON.

Digo pesadilla para referirme a un sueño sin lógica, sin fin constructivo, e incluso a media depuración en sueños, yo pensaba: Se que esto es un sueño porque el cliente ya me regresa bien el header de last modify, asi que no entiendo que me quiere decir mi mente al comentarme del código arbitrario. Si mi parser no ejecuta objetos y convierte como paso previo a un array que no puede ejecutar por definición, ergo, este no es una pesadilla de código arbitrario sino un sueño estúpido.

Asi que me desperté. En ocasiones he soñado con código fuente y formas de mejorarlo, pero nunca me imaginé que fuera posible una pesadilla de código arbitrario bajo JSON.

Lo bueno de conocer las reglas del RFC y hacer tu propio parser, te hace inmune a ataques de idiotas con mucho tiempo libre.

Correo a la unidad que usa el server dedicado con problema de los respaldos

Saque un respaldo de ayer a hoy en mi casa, metodo normal de cpanel , mide 3.5 gb Tengo dos conexiones, en una se tarda 7.5 horas y en otra 2 horas

Lo copie a mi servidor personal mediante copia directa via ftp, se tarda UNA HORA Y MEDIA EN GENERARLO, y en subirlo poco menos de una hora, el archivo subido de restore cpanel fue de 2 gb, porque desaparece el contenido de tmp del respaldo en ese tipo de copia.

Me resulta evidente que esa es la unica manera posiblle de sacar respaldos que incluyan en un solo paso una cifra de verificacion (creo que es md5), pero ese archivo final, copiado a otro servidor y despues restaurado para la prueba en frio, es el que debe quemarse regularmente o guardarse en los hipoteticos usb.

Notas :

1 ) Tenemos demasiados archivos. Que pasa si creamos una base de datos nueva llamada «boveda» y adapto un script que tengo para que guarde el archivo que definamos a esa boveda, despues de cierto tiempo. Si Redirigimos el error 404 a boveda.php y ese devuelve el archivo descargando de la boveda, no hay que alterarar la programación y es mucho mas rapido de respaldar o verificar una base de datos con blob, que pinche mil archivitos.

2 ) no esta documentado de que es cada directorio ni cada base de datos, se lo que habìa a Octubre del año pasado.

Recomendaciones:

1 ) Ver que hacemos para disminuir el uso de disco duro (¿maquina virtual o algo asi para descarga en otro sitio que no respaldemos?)
2 ) compra de software getright ( http://getright.com/ 19.95 usd y es mas barato) para poder descargar en parcialidades el archivo de 2 gb con nuestra eficaz conexión de internet. WINSCP no le tengo confianza y por lo menos en un caso me ha bajado archivos corruptos por el tamaño.

Problemas de respaldos en el trabajo

Hoy tuvimos un problema con los respaldos, mismos que son mi responsabilidad asumida voluntariamente. Se solucionó pero mandé este correo (alteré algunos datos basicos pero este es el problema):

Resumen Breve:

Solo para informar que me pidió David un respaldo de la base de datos del 26 de julio, (para ver algo de pq) y aunque tengo el archivo, no se puede abrir con windows ( ruta demasiado larga dentro ) y probablemente si desde linux. No es importante y ya fue solucionado por David contactando al cliente para ver lo del registro, pero quiero sugerir, de la manera mas enfática, que contratemos otro servidor dedicado para poder hacer pruebas en frio para verificar que tenemos respaldos y no ilusiones, normalmente estoy pasando el respaldo total al disco duro de mi casa, y a uno de mis servidores, mas el que ocasionalmente descargo aqui, pero probar un respaldo de 3.5 gb de tamaño resulta muy complicado y tampoco tenemos la garantia que el respaldo del sistema funcione y que sea suficiente para levantar en otro server( tendriamos que recrear los ajustes de puertos abiertos, etc)

Consideraciones:

a ) En una empresa como la de nosotros, enfocada a información sensible, los respaldos deben realizarse regularmente (cosa que hacemos) y probarse regularmente (no lo hacemos) además de amacenamiento externo (en este caso el nuevo server)

b ) (confidencial)

c ) No tenemos la estructura montada alrededor de continuidad de la empresa si nos cae un rayo a los que conocemos el «know how» o los datos de pago. Creo que es importante, por continuidad de la empresa y detectar nuestros puntos débiles, hacer un plan de continuidad de negocio.

Detalle:

Aunque hemos hablado de un script para automatizar respaldos (del que voy a medias), no es aconsejable automatizar la verificación del respaldo, sino probarlo ocasionalmente para ver que tenemos mas que aire.

Yo asumo que el supuesto error del archivo se puede deber a que nos desconectamos de la red a mitad de su descarga, o a que tenemos directorios con mas de 2 mil archivos.

Lo que haré ADICIONAL a partir de HOY es respaldar la base de datos principal de manera manual y adicional a lo actual, y revisarla manualmente. Estoy respaldando de un modo lento, pero que funciona de manera segura y que me permite verifcar manualmente al terminar, aunque la conexion me hace reiniciarlo. El respaldo de esa base de datos hoy no puede sacarse en formato zip normal, o en horas normales de oficinas, porque mide mas de 1.2 gb pero por lo menos no cabe ya en un cd, y eso es la base de datos PRINCIPAL, de manera independiente al contenido del sitio, y a las bases de datos secundarias. Van cinco veces seguidas que se cae el internet a mitad de la descarga, por lo que no me fue posible descargarla manualmente.

Esto evidentemente me ha obligado a ir borrando varios de los respaldos anteriores, por limitaciones de espacio del disco duro de mi portatil que uso aquí, y de la computadora de escritorio de mi casa.

Que recomiendo:

1 ) contratar otro servidor dedicado para pruebas en frio y almacenar respaldos.

2 ) por lo menos quincenalmente verificar que un respaldo completo levante en frio.

Que voy a hacer:

1 ) Verificar a partir de hoy los respaldos de base de datos manualmente.
2 ) Hacer bitácora de respaldos existentes, describiendo si son aire o probados, incluyendo fecha programada para su borrado.
3 ) proseguir con el script de respaldos del servidor automatizado (no se puede respaldar por ftp por exceso de archivos, debe ser via tar)

SIstemas de pago

Llevo unas semanas batallando con sistemas de autentificacion de clientes JSON. Hoy mismo encontré el problema que cambió de proveedor de proceso de tarjeta de credito el datacenter al que rento este servidor, y ese nuevo proveedor bloqueó el pago del server porque le pareció raro que una tarjeta de crédito internacional de México pague servidores en ese país.

Asunto arreglado.

No es la primera vez que me pasa: Cada vez que estados unidos tiene un problema en su calificación de credito, parece que los proveedores de pago directo con tarjeta se ponen sus moños.

Es mejor Paypal.

Du Bloqueado en server del corporativo

El servidor está lleno. Se supone que son 60 gb de espacio en ese server por raid, solo estamos usando 30.

Hago un scipt de php, lo subo y no corre du (linux) desde php ¿?

Son 60 gb, de los que usamos 25… 7 de sistema operativo y 20 estan perdidos. Es una tomada de pelo del proveedor. Siempre ha sido ese proveedor mi tercera opción, pero para la otra ya se que no conviene para necesidades de ese tamaño. Sin embargo probablemente pase a un cliente de las PYME con ese proveedor.

Interesante.

Update:
Ftp log era de 23 gb.