Formateando

Las proximas semanas voy a necesitar espacio en mi escritorio para poder manejar todas las notas. Por lo mismo, ayer me llevé a la casa la Dell Inspiron 1525, y me llevé al trabajo las dos netbooks.

Una LG 110x ( con XP), debido a que necesito ver varias cuentas de correo a la vez y windows live es un desastre para eso, y que necesito windows por software del trabajo.

Una HP mini, que me sirve para oir musica con el software includo, ademas de tener windows 7 OEM y Office OEM.

Se que la LG mejorada con el disco duro nuevo y la base enfriadora aguanta oracle, asi que empezar a configurar todo el dia de hoy.

Suicidio empresarial

Hace un rato confirmé uno de mis temores. Básicamente el problema es la cantidad de trabajo realizada lo que quieren impedir.

No puedo dar mas detalles por razones obvias, pero la primera medida es empezar a documentar lo que esta pasando desde respaldos hasta falta de imagen corporativa en los documentos independientes.

Afortunadamente el estilo de trabajo que me resulta mejor, me resulta asignado desde mañana.

Todología

El sistema desarrollado para clientes pequeños de 100 articulos maximos, tarda 40 segundos en un entorno de 600 articulos en ese cliente, en un server con load de 3. Y se quejan.

¿Porque no lo mandan al sistema grande?

¿Porque usan 200 ftp simultaneas?

¿porque permiten un load arriba de uno constante?

Sin comentarios.

Parser de JSON y pesadillas de código arbitrario.

Las dos ultimas semanas han estado saturadas de trabajo. Por lo general duermo muy poco pero esta semana dos ocasiones seguidas he dormido menos de lo común.

Por otra parte, he estado realizando un cliente de JSON y el universo de bases de datos es de un gb y medio actualizandose cada 20 minutos. Si me descarga la cabecera de código last modified, lo que me evita descargas de más.

Sigo probando ideas de servers al mismo tiempo. Y me acordé hace rato de algo , de una incomodidad fuerte en sueños allá por el domingo: Aunque pràcticamente no sueño, uno de esos días tuve una pesadilla de código arbitrario bajo el JSON.

Digo pesadilla para referirme a un sueño sin lógica, sin fin constructivo, e incluso a media depuración en sueños, yo pensaba: Se que esto es un sueño porque el cliente ya me regresa bien el header de last modify, asi que no entiendo que me quiere decir mi mente al comentarme del código arbitrario. Si mi parser no ejecuta objetos y convierte como paso previo a un array que no puede ejecutar por definición, ergo, este no es una pesadilla de código arbitrario sino un sueño estúpido.

Asi que me desperté. En ocasiones he soñado con código fuente y formas de mejorarlo, pero nunca me imaginé que fuera posible una pesadilla de código arbitrario bajo JSON.

Lo bueno de conocer las reglas del RFC y hacer tu propio parser, te hace inmune a ataques de idiotas con mucho tiempo libre.

Y sigue la mata dando

Me reportaron que una pantalla que tiene cerca de 200 combos cargados de bases de datos, esta lenta y provoca pantalla en blanco en uno de los clientes del corporativo.

Load arriba de 2, solución obvia: Comentar esta línea
//if ( extension_loaded( «zlib» ) ) ob_start( «ob_gzhandler» ); // Habilita compresion. No mover si no se entiende.

Explicación:
El server no tiene suficiente cpu disponible para iniciar el zlib de php.

El uso que le está dando a ese server no es el originalmente planeado, y no toman en cuenta la sobrecarga que le está causando.

Otra vez los logs…

El 23 de mayo escribí acerca de tener archivos dentro o fuera de la base de datos :https://alfonsoorozcoaguilar.com/2011/05/23/archivos-dentro-o-afuera-de-la-base-de-datos/

El 4 de julio comenté que el tmp medía 23 gb. Lo borro cada semana.

Algo hicieron con los cambios de derechos que el tmp esta usando 58 gb de 120… y nose borran con miscript. Al limitar ejecuciones de llamadas a system desde php, los scripts de hace un mes tampoco sirven

Que bárbaros.

Lo bueno es que parece que mi versión propia de repositorio de archivos para corregir las deficiencias de cvs como subversion puede resolver esto por hoy.

Cosa rara con los passport de microsoft

Varios de los sistemas que he desarrollado se autentifican por CURL contra passport de microsoft.

Una de las dos claves que uso, no relacionadas con hotmail, no funciona. Probablemente desactivada por no entrar al messenger en esa cuenta. La otra lo usa incidentalmente cuando skype falla. Y son dos dominios desconocidos.

Interesante.

Sea l oque sea no usare la autentificacion por «passport de facebook» jamas.

Parte previa a la resolución de respaldos

Como no tiene el asunto para cuando, tomé la decisión drástica de enviar este correo, para preparar el alto.

Asunto :Que respaldos estaran disponibles de servidor de la empresa

Me puse de acuerdo con Alejandro y G para sacar respaldos del servidor de ******* ******, por el metodo de cpanel, y esto es lo que se hará a partir del 15 de agosto.

Puntos importantes:
* Sacaré respaldo diario del servidor ******* ****** a uno de mis servidores propios
* y estarán disponibles online 5 versiones correspondientes a la semana anterior (lunes martes miercoles jueves viernes ), incluyendo base de datos.
* Conservaré respaldos diarios en mi pc de los ultimos 15 dias naturales
* Se guardará además el respaldo del dia 15 y ultimo de cada mes
* por fines de control, se eliminarán el 31 de agosto de este año la mayor parte de los respaldos anteriores al 15 de agosto del presente.

Moniker kaput

Hace unos ocho dias renove unos dominios en moniker por paypal, y se me cobró. Me llegó hoy un aviso de que uno de los dominios serán desactivados…. y hubo cambios otra vez en el whois.

Esto me pasó solo una vez antes (hace unos 5 años) con un registrar que colapsó.

El sentido comun me dice dejar Moniker Lo mas pronto posible.

Voy a acabar pagando doble unos dominios, pero ya que.

Afortuanadamente solo son unos 15.

Hubo dos avisos anteriores con algunos servicios gratuitos, y publicidad en unas redirecciones includidas, ademas de la imposibilidad de dominios con DNS en blanco.

Que mal.

Tendré que ir pensando que registrar usar para esos casos, casi seguro srsplus.

Correo a la unidad que usa el server dedicado con problema de los respaldos

Saque un respaldo de ayer a hoy en mi casa, metodo normal de cpanel , mide 3.5 gb Tengo dos conexiones, en una se tarda 7.5 horas y en otra 2 horas

Lo copie a mi servidor personal mediante copia directa via ftp, se tarda UNA HORA Y MEDIA EN GENERARLO, y en subirlo poco menos de una hora, el archivo subido de restore cpanel fue de 2 gb, porque desaparece el contenido de tmp del respaldo en ese tipo de copia.

Me resulta evidente que esa es la unica manera posiblle de sacar respaldos que incluyan en un solo paso una cifra de verificacion (creo que es md5), pero ese archivo final, copiado a otro servidor y despues restaurado para la prueba en frio, es el que debe quemarse regularmente o guardarse en los hipoteticos usb.

Notas :

1 ) Tenemos demasiados archivos. Que pasa si creamos una base de datos nueva llamada «boveda» y adapto un script que tengo para que guarde el archivo que definamos a esa boveda, despues de cierto tiempo. Si Redirigimos el error 404 a boveda.php y ese devuelve el archivo descargando de la boveda, no hay que alterarar la programación y es mucho mas rapido de respaldar o verificar una base de datos con blob, que pinche mil archivitos.

2 ) no esta documentado de que es cada directorio ni cada base de datos, se lo que habìa a Octubre del año pasado.

Recomendaciones:

1 ) Ver que hacemos para disminuir el uso de disco duro (¿maquina virtual o algo asi para descarga en otro sitio que no respaldemos?)
2 ) compra de software getright ( http://getright.com/ 19.95 usd y es mas barato) para poder descargar en parcialidades el archivo de 2 gb con nuestra eficaz conexión de internet. WINSCP no le tengo confianza y por lo menos en un caso me ha bajado archivos corruptos por el tamaño.