lunes, 13 de abril de 2009

Conceptos básicos de informática

Me ha hecho mucha gracia la definición que he encontrado en MICROSIERVOS

Las partes del ordenador que puedes golpear con un martillo (algo poco recomendable) se llaman hardware; las instrucciones de los programas que lo hacen funcionar y a las que únicamente puedes maldecir se llaman software.

• Richard P. Brennan Levitating Trains and Kamikaze Genes

Vacaciones con PC

Carlos Álvarez de EL PAÍS, comenta que a los ordenadores les sienta mal el madrugar (por motivos técnicos, eso sí, como las sobrecargas de la red eléctrica a primera hora del día y cosas así), más o menos como a nosotros. Lo que no queda tan claro es si necesitan unas vacaciones.
Una cosa es segura, nosotros sí que las necesitamos. Y podemos aprovecharlas para dar un descanso a nuestro PC, o dejar que nos acompañe a la playa (más que nada si es portátil) o proteger y actualizar sus funciones.
Una puesta a punto, se puede conseguir sin grandes esfuerzos ni gastos desde la misma Red, con diferentes resultados según lo hábiles que seamos:
Desde la dirección Seguridad y Sistemas facilitan, sobre todo para los menos avezados, una guía rápida para el blindaje de su PC que, en poco más de 5.000 palabras, aconseja sobre antivirus, cortafuegos, antispyware, recuperación de archivos borrados y otros asuntos prácticos.
El Ministerio de Educación y Ciencia dedica un espacio a explicar cómo proteger nuestro ordenador. Deseo Aprender consagra uno de sus cursillos a prevenir “los peligos que acechan a tu ordenador“.
Se supone que todo internauta consciente tiene instalado algún antivirus. Para el caso de que no sea así, o queremos cambiarlo, Alerta-Antivirus aconseja unos cuantos diferentes, y gratuitos; también cortafuegos. Se trata de una dirección dedicada a alertar sobre los nuevos virus que entran constantemente en acción.
PC World, una publicación clásica en el género, tiene un artículo con trucos prácticos para mejorar la salud del PC.
Para internautas más manitas, Configurar Equipos se ofrece como foro de informática y soporte técnico sin coste, mientras que E-magister incluye entre sus cursos una decena sobre reparación gratis del PC.
Y hay muchas más ofertas en Internet, como los 1.001 manuales de programación de Solo Recursos, o, en plan más lúdico, los fondos de Programas Gratis.

Lo 10 programas más descargados de la historia

En SOCIEDAD2.0 M Ruth Gamer, comenta que cuando CNET abrió download.com en 1996 apenas había 3000 programas para descargar. La distribución de software on-line estaba comenzando. Las 10 aplicaciones más bajadas durante este tiempo representan la tendencia seguida en esta última década.
ICQ; un programa de mensajería instantánea.
Winamp; un reproductor de música online.
Napster; servicio de distribución de archivos de música en Internet basado en tecnologías P2P.
Firefox; primer browser que demostró la posibilidad de que el monopolio de Microsoft podía superarse.
WinZip; desde su lanzamiento era la única forma de enviar archivos grandes.
iTunes; el único negocio que ofrecía una librería de música, reproductor y “diseño”.
Ad-aware; software para proteger el PC de las bajadas de Internet.
Skype; mensajería y telefonía IP.
RealPlayer; reproductor de música y vídeo.
Adobe Acrobat Reader.

Limpieza “interna” para nuestro PC

En el blog de ARTURO GOGA menciona que Lifehacker ha publicado un extenso artículo detallando 10 diferentes aplicaciones que nos ayudarán a mantener a nuestra PC en óptimas condiciones.

Cuando nos quejamos de que el ordenador va lento, es momento de ponernos en plan limpieza general. Cada cierto tiempo, por el uso, es fácil que Windows acumule programas que nunca utilizas, los archivos temporales o duplicados, los atajos de escritorio múltiples o los gigabytes de datos que olvidas en tu disco duro. Limpiar ese viejo ordenador y darle brillo es fácil si tienes en cuenta el siguiente artículo: Top 10 Ways to Clean Up Your PC.

Windows Live Unified Installer al ataque

Según nos cuentan en OJO BUSCADOR, parece ser que Microsoft prepara una nueva estrategia: el lanzamiento del programa Unified Installer para Windows Live, que permitirá a los usuarios de PC descargarse un set de servicios como Windows Live Writer, Windows Live Photo Gallery, Windows Live Mail, Windows Live Messenger 8.5 y Windows Live OneCare Family Safety . Es un esfuerzos para conectar Windows con una creciente sección de servicios de Internet.
Con este nuevo enfoque, Microsoft espera hacerles la competencia a Google y Salesforce, que actualmente ya ofrecen aplicaciones de software a través de Internet.

El nuevo software suite Windows Live de Microsoft incluye un actualizado servicio de correo electrónico, una aplicación para compartir fotos y nuevas herramientas de blog. Con estas medidas se puede ver que Microsoft no sólo planea competir con Google en el campo de la búsqueda, dónde está en mayor desventaja, sino que espera hacerlo en otros sectores del negocio.

Beta 3 del Windows Live Writer

En DIGIZEN el profesor Mario A. Núñez, comenta que la beta 3 del fabuloso editor Windows Live Writer ya está disponible para descarga.
No trae ninguna novedad, pero si corrigen un gran número de los problemas de la anterior beta 2. Esta será la última versión beta antes de que salga a la luz la versión 1.0. Es conocido el amor que le tiene a esta aplicación, pues comenta: “Para estar en versión beta es de lo mejor que he usado como editor para publicar en blogs“.
Yo que siempre hago caso a la voz de la experiencia, ahora mismo la descargo, espero que no me de tantos problemas como la última.

FileZilla 3.0, también para Linux y MacOS

En GENBETA en un post de Oscar J. Baeza nos comentan que Filezilla acaba de lanzar la última versión de su cliente FTP, Filezilla 3.0, que no sólo se renueva en la versión para Windows, sino que ahora provee de una versión para MacOS y una versión para Linux.
Filezilla, en su versión 2.2.x, ya se caracterizaba por diversas funcionalidades como soporte para FTP/SFTP, gestor de sitios, cola de descarga/subida, soporte para archivos ASCII/Binary, comandos personalizados, etc. que en esta versión, Filezilla 3.0, se ven complementados por:
criterios de filtrado en la visualización de los listados de archivos/directorios, actualizaciones automáticas de la aplicación, soporte multi-idioma mejorado, incluyendo idiomas de escritura inversa (de derecha a izquierda), soporte mejorado para conexiones a través de firewalls, soporte para conexiones FTP sobre TLS/SSL (FTPS), soporte para el envío/recepción de archivos de más de 4Gb, gestión de los límites de la velocidad de transferencia, nuevos temas para la barra de herramientas y un nuevo icono para la aplicación.

Si no lo has descargado, ya estás tardando en descargarlo.

CCleaner, limpieza a fondo

En GENBETA comenta que es de todos conocido que el desinstalador de Windows deja mucho que desear y que siempre suele dejar algún rastro en el registro del programa que hemos desinstalado. De la mano de Piriform, nos llega CCleaner para ayudarnos a mantener en forma nuestro registro y nuestro equipo.
El programa de instalación es el típico de siguiente-siguiente, pero con una pequeña salvedad: si no tienes cuidado, os instala una molesta barra de búsqueda en el navegador, aunque puede que alguien le encuentre su utilidad (yo personalmente, no).
Después de la instalación, podemos ejecutar el programa sin necesidad de reiniciar. La pantalla principal es esta:
Veamos las distintas opciones que ofrece:
Integridad del registro: se encarga de revisar que no haya entradas en el registro que hagan referencia a programas inexistentes en el sistema.
Limpieza: se basa en dos niveles principales, Windows y aplicaciones. El nivel de Windows nos permite seleccionar el borrado de archivos temporales, cookies, historial de navegación, papelera de reciclaje y un largo etcétera. Para las aplicaciones, si bien no aparecen todas, aparecen aquellas más importantes, para también eliminar el historial de documentos abiertos, etc. Un pequeño detalle a tener en cuenta: siempre cerrad las aplicaciones en cuestión, si bien el programa os lo avisará.
Una vez seleccionadas las opciones que queremos, podemos pulsar el botón de Analizar, de manera que el programa revisará todo aquello que se puede eliminar y que hemos marcado y nos mostrará un resumen de espacio que ocupa y todos los ficheros temporales que eliminará. En mi caso con la primera ejecución me dijo que eliminaría más de 400 Mb, que no es poca cosa, la verdad.
Si estamos de acuerdo con el resultado, le damos al botón de Ejecutar y pasados unos segundos el programa terminará y todo perfecto. Yo por desconfianza ejecuté el programa dos veces y si bien hubo algunas entradas del registro que me volvieron aparecer, al final con la segunda ejecución todo quedó limpio.
No olvidéis que después de haber eliminado tanta información, quizás una desfragmentación es útil.
Todas estas características son sólo un adelanto de esta joya, que recordemos, supera los 85 millones de descargas y para la que se están preparando nuevas funciones con las que exprimir al máximo sus posibilidades. Si no lo conocías, a partir de ahora será un fijo en tu máquina.

Google Maps, imposible perderse

El portal Vnunet, nos descubre por si aún no lo conoces Google Maps, una potente herramienta de Google mediante la cual no solamente podrás buscar direcciones en cualquier parte del mundo, sino que también te permitirá averiguar el mejor camino entre dos puntos e, incluso, encontrar establecimientos determinados en una zona concreta del mapa.
Para empezar, sólo tienes que teclear http://maps.google.es/ en tu navegador y prepararte para vivir una experiencia altamente recomendable.

Google Video cambia para comvertirse en buscador de videos




Google ha anunciado cambios en el formato de Google Vídeo para modificar el carácter de los servicios que venía ofreciendo hasta ahora. Google Vídeo dejará de funcionar como medio de publicación on line, para convertirse en buscador de vídeos por Internet.
Google Vídeo contará a partir de ahora con los servicios de almacenamiento y distribución online de vídeo.
Así las búsquedas en Google Vídeo ofrecerán en sus listas de resultados vídeos almacenados en Google Vídeo, como sucedía hasta ahora, pero además incluirán también los resultados de vídeos almacenados en YouTube.
El objetivo principal de Google es evolucionar hacia un servicio integral de búsqueda de videos por toda la red independientemente de dónde estén alojados.
Visto en: CDTinternet.net

Mejora la velocidad de Firefox

Como hemos visto en una oportunidad, en Firefox y otros navegadores podemos especificar el número de conexiones simultáneas a un mismo servidor. Si tenemos buen ancho de banda podemos aumentar del número de conexiones activas y descargas de un mismo servidor, con lo que mejoramos la velocidad de navegación. Sin embargo esto puede causar un problema. Si las conexiones simultáneas se mantienen durante un largo período de tiempo, no se permitirán otras conexiones de breve duración ya que el número máximo de conexiones se ha alcanzado. Por defecto, si una conexión nueva quiere entrar y el número de conexiones simultáneas se ha alcanzado, esta tiene que esperar 10 segundos para intentarlo nuevamente. Ahora que sucede si antes de los 10 segundos alguna de las conexiones queda disponible? Se pierde velocidad al navegar.
Para solucionar esto hacemos lo siguiente:
1) En la barra de direcciones de Firefox escribimos ‘about:config‘ y damos ‘Enter‘ para ir a la configuración de Firefox
2) Buscamos el valor de la clave ‘network.http.request.max-start-delay‘ y le cambiamos el valor de 10 a 0 (cero).
No importa si no entendieron mucho, el caso es que les ayuda a mejorar la velocidad. Solo sigan los pasos y listo (pueden ver más info de como funciona en kb.mozillazine.org).
Visto en: Menéame

Backup de Blogger

No existen muchas maneras prácticas de hacer un backup de un blog en Blogger. Pero HTTrack nos provee de una solución sencilla.
HTTrack puede bajar al PC un sitio entero, incluyendo gráfico y vínculos de tal manera de crear una copia (mirror) local que puede ser “navegada” aún cuando estemos offline. El programa es gratuito.
Una vez instalado, al ejecutarse por primera vez se nos pide que identifiquemos la URL del blog y dónde queremos guardarlo. Cada vez que se hagan cambios, bastará ejecutarlo otra vez para que sólo actualice las modificaciones.
HTTrack tiene mucha opciones de configuración y personalización, de las cuales hay tres importantes que aparecen la primera vez que se ejecuta: nombre del proyecto (Project Name), categoría (Project Category) y directorio base (Base Path).
La URL debe esta escrita en este formato: http://nombre.blogspot.com y puden ser ingresadas varias, en caso de querer hacer un backup de múltiples sitios. Por defecto, el directorio base será el de instalación del programa pero es recomendable crear o seleccionar otro.
El backup completo puede tardar entre 5 y 10 minutos y ocupar unos 20MB de espacio en el disco.
Nota: siempre, siempre hacer un backup de la plantilla.
Visto en: Vagabundia

Igual el sueldo no le da para calcetines nuevos

Pobrecito el presidente del banco mundial que estuvo en Turquía y para entrar en una mezquita le obligaron a quitarse los zapatos…



Si es que ya te lo decía desde chiquito tu madre: Paul los calzoncillos y los calcetines ponte los nuevo no vaya a ser que te pase algo y tengas que ir al hospital.


En este caso no es al hospital pero esta foto esta dando la vuelta al mundo. Mama Wolfowitz tiene que estar que trina.


Como pie de foto podría ser: El presidente del banco mundial llevaba los puntos del día.


Foto: el mundo


Visto en: PitoDoble

Cuidado con las contraseñas

Hoy en día empleamos contraseñas para cientos de cosas en Internet o en el ordenador. Parece que no tienen importancia pero en la mayoría de las ocasiones tiene mucha más de la que te imaginas. Con la contraseña de tu cuenta de correo electrónico se podrían hacer muchísimas cosas, por ejemplo… pueden “hacerse pasar” por tí al tener tu cuenta de correo.Por ejemplo, si has comprado alguna vez alguna producto en Amazon, eBay o cualquier tienda y has pagado con tarjeta, con algo de labia (o incluso sin ella en muchos comercios) podrían preguntar amablemente por la tarjeta de crédito usada, obteniendo respuesta de ello en tu cuenta de correo, la cual, si saben la clave… pues…
En fin, que es lógico y claro, que las claves son muy importantes. Así que dentro de esta premisa voy a aconsejar desde aquí en base a un artículo que he leído que no pongáis claves fáciles. Una clave fácil es “árbol”, “casa”, “benjamín”, “auriculares”… es decir, cualquier palabra sencilla contenida en un diccionario. También son fáciles cosas como “mario82?, “1975maria”, o “245531542?.
Expliquemos el por qué
Usando un juego de 10 caracteres numéricos (0123456789), una clave de 9 dígitos, con un ordenador normalito (siempre pondremos ejemplos con ordenadores “de casa”) se puede sacar en base a programas que generan combinaciones y prueban la clave, en unos 15 minutos.
Si usamos un juego de 26 caracteres para nuestra clave de texto (abcdefghijklmnopqrstuvwxyz), y creando una clave 7 caracteres que es la media usada, la clave la obtendríamos en poco más de 2 horas. Si en lugar de eso usamos 52 (mayúsculas y minúsculas unidas), la misma clave podría darse en unos 12 días.
Si además de 52 caracteres de letras metemos los numéricos de antes, la misma clave tardaría 42 días, y si ademas metemos símbolos de por medio, podría tardar hasta 2 años y medio.
Todos estos ejemplos con un ordenador de casa, normalito. Tomando el último ejemplo, es decir, creando una clave de 7 caracteres con un juego de 96 caracteres (letras mayúsculas, minúsculas, números y símbolos del teclado), incluso un superordenador de esos que ocupan una pared entera, tardaría hasta medio año en descifrarla sacando combinaciones.
Conclusión
Por favor, no pongais claves que sólo contengan números o letras, para programas descargables por Internet al alcance de cualquier persona, son apenas minutos lo que hacen falta para descifrarlas. Usad claves complejas con números, letras y símbolos, por ejemplo, si quieres usar la palabra árbol (porque te gustan mucho los árboles o por cualquier motivo), puedes usar claves como ArB0l (en lugar de una “o” es un cero), o también ar(BOL)… en fin, muchas más que un simple arbolillo.

ser geek es malo para la salud

puede que las comunidad geek esté de moda, pero si aprecia su calidad de vida en algo, no deberia introducirse en ella. Por ejemplo, los geeks tienen unas pautas de sueño horribles. insomnio y ciclos de sueño cambiados son algunos de los males que abundan en terminadas oficinas. El sueño ligero y los múltiples despertares a los largo de la noche están a la orden del día.
¿Por qué surgen estos problemas? Pues una de las cosas que se deben evitar es despertarse en mitad de la noche y conectarse al PC portátil o enceder la televisión. La cama sólo debe usarse para dos cosas: dormir y sexo. Si uno se pasa más de diez o quince minutos despierto en la cama, hay que levantarse y optar por leer o escuchar música. Ver la tele o usar el ordenador son actividades que estimulan y despiertan aún más el celebro.Y si se hacen repetidamente, aparece el mal hábito.
Los recurrentes dolores de cabeza son otro de los padecimientos más frecuentes entre los usuarios de PC a tiempo completo. Si sobreviene a las mismas horas del día y no aparecen durante jornadas no laborales, hay en efecto un claro culpable: el ordenador. Malas posiciones ante la pantalla, fuentes de letra demasiado pequeñas, etc, son causas de cefaleas crónicas.
Qué decir del dolor de espalda. En el común de los mortales es a menudo síntoma de depresión, pero si hablamos de geeks suele ser debido a malas condiciones de trabajo o a abusos en este sentido. Las sillas cutres y los monitores mal colocados hacen estragos. Lo peor es que cuando más se nota es durante los fines de semana, cuando lós múculos y todo l cuerpo en general se relajan más.
La capacidad de atender de muchos geeks es sumamente pobre. Cuando no están frente a la pantalla les cuesta un mundo mantenerse despiertos, por Ejemplo en reuniones largas o realizando tareas no relacionadas con el PC. Pero siapenas duermen, y mal, ¿Cómo van a prestar atención duradera a nada?
Y es que el cerebro de un geek está hecho para desarrollar multitareas informáticas, pero no para sentarse tranquilamente y escuchar...

¿El regreso de los ordenadores tontos?

Cuenta ELPAIS, que la rebaja de costes y los problemas de seguridad le dan una segunda oportunidad a los terminales de red, por lo que están otra vez de moda.



Lo cuenta The Wall Street Journal. Los ordenadores tontos, esos que son todo pantalla, teclado y ratón, y cuya mayor capacidad es la de conectarse a un servidor de red que es, en realidad, el que hace las funciones que hasta ahora desempeñan los PCs de sobremesa, vuelven a estar de moda.Las empresas pueden ahorrar hasta un 40% instalando este tipo de terminales, ya que dan menos costes (¿para qué tener un disco duro en cada ordenador, por ejemplo, si para trabajar se va a usar igualmente una unidad de red?) y ofrecen más seguridad. Lo dicho, si diriges una empresa piénsatelo; no serás el único, ya que se espera que este tipo de instalaciones va a crecer a un ritmo del 21,5%.

Abusar del e-mail disminuye la productividad

Los usuarios de comunicaciones electrónicas pueden tardar más de cuatro veces en intercambiar el mismo número de mensajes que cuando se comunican cara a cara.
El aparentemente inofensivo comportamiento de los colegas puede causar un daño incalculable en las relaciones de equipos de trabajo y en la productividad de las empresas que tienen muchas oficinas, de acuerdo con un estudio de Cisco Systems.
Los investigadores hallaron que una confianza excesiva en el correo electrónico, fallos al responder los mensajes y el uso de métodos inapropiados de comunicación pueden dañar la confianza y obstaculizar el progreso de proyectos críticos.
Cuando los equipos de trabajo virtual rechazan la necesidad de socializar, mantener contacto visual y establecer normas de comunicación actualizadas, la confianza que se construye es frágil y fácilmente vulnerable, lo que lleva a conflictos y rupturas en las relaciones.
El estudio de Cisco, denominado Psicología de las comunicaciones empresariales efectivas en equipos de trabajo geográficamente dispersos, recomienda comprometerse con protocolos en cuanto a los tiempos de respuesta deseables y fijar reglas para la selección de los medios y de la frecuencia con los cuales se llevará a cabo la comunicación, especialmente cuando se trata de equipos de trabajo multiculturales.
Fomentar la socialización y los chats alrededor de una máquina de café virtual, usando comunicaciones espontáneas y diseñadas sobre multimedia, también ayuda a agilizar y fortalecer el desarrollo de la confianza.
Un dato relevante es que los usuarios de comunicaciones electrónicas pueden tardar más de cuatro veces en intercambiar el mismo número de mensajes que cuando se usan las comunicaciones cara a cara, especialmente en los elementos no verbales (gestos, entonación, pausas, etc.), que pueden ocupar más del 63% de las interacciones sociales dentro del intercambio cara a cara.
La confianza puede ser frágil en los equipos virtuales debido a la invisibilidad del comportamiento, que ocurre cuando los equipos no pueden observarse unos a otros: la ausencia de interacción social y el silencio virtual causado por la no respuesta a mensajes de voz y correo electrónico.
El silencio virtual de alguien que no contesta estos mensajes puede alterar el flujo de trabajo e incluso provocar suspicacias en cuanto a que la parte que está en silencio está eludiendo el trabajo.

FlickrCC, imagenes Creative Commons en Flickr

A la hora de buscar imágenes que podamos usar en nuestros blogs, siempre se intenta que sean con licencia Creative Commons y un lugar dónde se suele buscar es en Flickr.

El problema es que cuando buscas en Flickr fotografías con licencia CC, te suele dar unas pocas, cuando tu intención suele ser buscar cuantas más mejor.

Alguien con un mismo problema ha creado FlickCC, que permite buscar en Flickr fotografías con licencia CC. Su uso es muy sencillo, aparecen 36 fotografías en un panel a la izquierda, el buscador a la derecha, junto a la foto seleccionada y la información de esta. Las fotos están organizadas según las más interesantes, dato dado por el voto.




Si quieres editar la fotografía seleccionada, usando el pequeño editor online que ofrecen, tienes que seleccionar “FOR EDITING” para asegurarse que nos devuelva fotografías con “Attribution License”, “Attribution-NonCommercial License”, “Attribution-NonCommercial-ShareAlike License” y “Attribution-ShareAlike License”.

Fireflix, controla tu cuenta de Flickr desde Firefox

Encuentro en SentidoWeb, una extensión que facilitará mucho el trabajo a los usuarios de Flickr. Se llama Fireflix y con ella podras subir fotos nuevas, crear thumbnails en formato HTML de las fotos seleccionadas, buscar fotos en Flickr, eliminiar fotos, trabajar con sets de fotos y más cosas. La primera vez que lo ejecutas, te aparecerá en Flickr una pestaña nueva para poder permitir el acceso a la extensión, una vez concedido ya podrás trabajar con ella perfectamente.

comentarios del blog anterior

Para el problema numero 7, se puede usar mod_rewrite, un módulo de apache que te convierte las direcciones dinámicas en estáticas. Es muy interesante y muy simple.

Para el punto 9, mucho mas interesante que el robot.txt es hacer un sitemap del sitio:http://google.dirson.com/o.a/google-sitemaps/

Guillo: el sitemap y el robots.txt son dos cosas distintas, el primero es para hacer un mapa del sitio y enviarlo a google (con el google sitemaps), y el segundo es un archivo muy util para todos los motores de busquedas y robots que andan por la red.

Javielinux: mencionas que hay un módulo en apache para convertir las páginas dinámicas en estáticas para los “ojos” de google, alguien sabe si existe alguna función similar en IIS???

http://www.diariothc.com/2007/02/01/optimizate-para-google/

http://www.webmasterlibre.com/2007/02/01/links-for-2007-02-01/

http://pixelco.us/blog/noticias-sobre-google/

http://wordpress.org/support/

http://geektheplanet.net/154/optimiza-tu-sitio-para-google.xhtml

http://www.pingocreative.com/

http://www.borjan.es/2007/google-ahora-le-da-mucha-importancia-al-trafico-y-a-la-calidad/

http://elgeek.com/

Como que ya debemos actualizar este artico hacia una optimizacion de paginas dinámicas, porque los php invaden la web.

Respecto al punto 7 sobre páginas dinámicas, ¿cual es la razón para que el buscador limite la indexación de estas páginas? El que hace el trabajo es el servidor donde está alojada la web que es el que tiene que devolver páginas estáticas.

10 consejos para optimizar tu sitio para Google

10 tips/consejos a tener en cuenta para optimizar nuestro sitio antes de enviarlo a Google. Siguiendo estos consejos podremos hacer que Google registre mejor nuestro sitio web.
1. Si tu sitio web posee pantalla de bienvenida, asegurarte de tener un enlace de texto que permita al visitante ingresar al sitio.Es común ver muchos sitios con una pantalla de bienvenida muy llamativa y llena de efectos echa en Flash pero sin otra manera de acceder al sitio. Es recomendable tener un enlace de texto que permita acceder al sitio “tradicionalmente” ya que Google no puede leer paginas Flash y por lo tanto no podrá acceder al resto del sitio.
2. Asegurarte de no tener enlaces rotos.Suena bastante obvio. Pero es impresionante la cantidad de errores que experimenta el motor de Google diariamente debido a enlaces rotos. Por lo tanto tendríamos que chequear todos los enlaces internos de nuestro sitio.
3. Chequear las etiquetas TITLEEl titulo de las paginas es muy importante para Google, por lo que deberíamos chequear que la etiqueta TITLE sea correspondiente con el contenido de la pagina en cuestión. Esto no significa que tenés que poner un titulo de mas de 20 palabras, sino mas bien acorde con el contenido y fácil de leer para los motores de búsqueda y los navegantes.
4. Chequear las etiquetas METALos rumores sobre que Google no se interesa por las etiquetas META no son del todo ciertos. Google usa estas etiquetas para describir un sitio web cuando hay demasiado código para leer. Por lo tanto ingresar algunas etiquetas META validas como KEYWORDS y DESCRIPTION, para las palabras claves y la descripción del sitio respectivamente.
5. Chequear las etiquetas ALTLas etiquetas ALT probablemente deben ser las menos usadas por los webmasters. Debemos insertar estas etiquetas en las imágenes para describir las mismas. No son un factor determinante, pero si un plus para Google.
6. Chequear tus frames (marcos)Un frame es una especie de marco o recuadro independiente en el que podemos cargar una página web. Si usamos frames puede que Google no nos indexe al 100%. Personalmente recomiendo no usar frames, pero si decidís usarlos lee este articulo.
7. ¿Tenes paginas dinámicas?Es sabido que la web evoluciono mucho estos últimos años, y que cada vez hay mas paginas dinámicas basadas en lenguajes de scripting (PHP, ASP, etc.). Pero parece que Google esta limitando la cantidad de paginas dinámicas que indexa, por lo que podríamos incluir algunas paginas estáticas… cuando el dinamismo no sea necesario.
8. Actualizar regularmenteEste es un aspecto muy importante que deberías considerar, ya que Google indexa mas rápidamente paginas que son actualizadas con cierta regularidad. Podes advertir que el numero de paginas indexadas por el motor de búsqueda se incrementara día a día si actualizas, pero puede estancarse o reducirse si no brindamos contenido nuevo. Te recomiendo que pongas una opción META en la cabecera para decirle a Google con que frecuencia debe volver para re-indexar.
9. El robots.txtEste archivo puede resultarnos de mucha ayuda si lo utilizamos correctamente. Con el robots.txt podemos filtrar que motores de búsqueda registran nuestro website y restringir el acceso a ciertas URL’s que no queremos que sean indexadas (paginas de login, carpetas con archivos, etc.)
10. ¿Cache o no cahe?Google hace una cache de algunas paginas para tener un acceso mas rapido a ellas. Algunos webmasters prefieren no ser “cacheados”, para evitar que Google cachee nuestras paginas todo lo que tenemos que hacer es colocar el siguiente META entre las etiquetas HEADs:
META NAME=”ROBOTS” CONTENT=”NOARCHIVE”

Con eso evitamos que los robots cacheen y archiven nuestras paginas.

Listo!, ahora podemos enviar nuestro sitio web a Google para que lo indexe correctamente.(Traducido y adaptado de 10 things… por El Geek.)

El diskette ha muerto


En Silicon.com, ya dan por muerto y enterrado al diskette y es que la cadena de tiendas informáticas PC World ha anunciado que deja de vender ordenadores con unidad de diskette. Y es que este soporte, inventado por IBM en el año 1.971, tiene los días contados.

Pues yo os recomiendo que no lo enterréis tan pronto, que no se sabe cuando puede venir bien… y mas en oficinas o en empresas.

Eso es algo que estoy escuchando desde hace años… una cosa es que desaparezcan, y otra cosa es que se deje de “promocionar” su uso…
Algunos hace tiempo que quería llenar de silicona el diskette para solucionar el problema de los virus, pero eso es otra historia.

jueves, 9 de abril de 2009

Dell lanza computadoras de escritorio Studio todo en uno


Dell ha anunciado su computadora de escritorio Studio One 19 todo en uno con una pantalla de 19 pulgadas y capacidad de opciones multitoque.Con una parecido inexplicable a la iMac, la Studio One ofrece un núcleo doble de Intel (u opción de cuádruple núcleo), gráficos nVidia GeForce, más de 4Gb de memoria, 750Gb de disco duro, una unidad óptica que se descarga a una ranura, lector múltiple de tarjetas, seis puertos USB y opción integrada inalámbrica, cámara Web integrada y soporte para Blu-ray disc.Dell está relanzando su software opcional que trabaja con las configuraciones multitoque que pueden ser usadas para edición de fotos, creación de presentaciones de diapositivas, compilación de listas de reproducción, notas y navegación en la Web. Otras aplicaciones son el software de pintar You Paint, grabación de video y subidas de YouTube, integración de Flickr y un centro de percusión multitoque para la creación musical. La Studio One 19 está hecha en aluminio, vidrio y tela y los colores disponibles son blanco y ahumado. El precio no se ha anunciado aún. Estará disponible en Australia y Nueva Zelanda para mediados de año.

miércoles, 8 de abril de 2009

Idioma de la vida

No es de extrañar, ya que el genoma de una persona todo el código genético en los cromosomas contenidos en el interior del núcleo de casi todas las células en el cuerpo. Se compone de seis millones de cartas, o tres mil millones de pares de bases del ADN, la mitad de los cuales provienen de cada uno de los padres. Estos están organizados en una doble hélice, cuya elegante estructura fue descrita por primera vez por Crick y Watson en 1953. En ese momento, su descubrimiento apenas en los titulares. La publicación del primer borrador del genoma humano en 2000 era muy diferente. En un doble Washington y Londres conferencia de prensa, el presidente Bill Clinton dijo: "Estamos empezando a aprender el idioma en el que Dios creó la vida". Hablando de las implicaciones médicas de la cartografía del genoma, añadió: "Es concebible que ahora de nuestros hijos sabrán, el término cáncer como una constelación de estrellas". En Downing Street, el Primer Ministro Tony Blair dijo que el logro saludó "una revolución en la ciencia médica cuyas consecuencias muy superiores, incluso el descubrimiento de los antibióticos, el primer gran triunfo tecnológico del siglo 21". Entonces, ¿qué es un genoma y de Blair y Clinton fueron los comentarios de justificarse en ningún sentido?

Una revolución en el cribado del genoma ha sido prometido por una empresa de biotecnología en los EEUU.

Genómica completa, dice que una secuencia de miles de genomas completos entre junio de 2009 y el final del año y un millón más de cinco años. la empresa, con sede en Silicon Valley, cerca de San Francisco, vio de primera mano, la potencial importancia de la masa de mapeo de genes. Silicon Valley en California es un centro clave para la genética, la bio-tecnología, la investigación y la tecnología de la computación - todas las cuales son fundamentales para la cartografía del genoma. Varias empresas son la predicción de un aumento dramático en la velocidad de la secuenciación de genes. Si Genómica completo puede cumplir su promesa - y que todavía tiene que construir toda la infraestructura que necesita - que sería un logro extraordinario. Hasta la fecha, sólo alrededor de 20 personas han tenido la totalidad de su código genético el mapa. Esto se debe a dos factores: el costo y la complejidad. El primer borrador del genoma humano fue publicado hace casi una década. Se trata de la labor de cientos de científicos de seis países y tomó una década para producir. El precio era de más de $ 2BN. Desde entonces, el costo se ha reducido a unos pocos cientos de miles de dólares, y el tiempo necesario para unos pocos meses -, pero sigue siendo una gran empresa.

Internet en 3D

La Web en 3D está más cerca de la realidad gracias a que Mozilla, desarrollador del navegador Firefox, ha combinado sus fuerzas con el consorcio Khronos. Khronos ha constituido un grupo de trabajo para crear un estándar para lo que denomina gráficos 3D acelerados en Internet. Esto podría contribuir a la expansión de los juegos basados en un navegador, y originar entornos 3D en sitios de redes sociales como Facebook y MySpace. El objetivo es crear una primera versión pública en un año. "La personas hacen cada vez más cosas en Internet… añadir la tecnología 3D a esta mezcla garantiza que las actuales aplicaciones Web puedan ofrecer nuevas experiencias de usuario, al mismo tiempo que permite el desarrollo de nuevas aplicaciones Web", señala en su blog el ingeniero de infraestructuras de Mozilla, Vladimir Vukicevic.El desarrollo del estándar que propone Mozilla creará un mecanismo para permitir que JavaScript –el lenguaje de programación utilizado para escribir numerosas aplicaciones basadas en Web– aproveche la tecnología de interfaz de gráficos de OpenGL, muy utilizada. Los juegos basados en Web están empezando a triunfar y, en Febrero, el clásico juego Quake III salió al mercado específicamente para el navegador. Según Paul Jackson, analista de la empresa de investigación Forrester, una Web preparada para 3D podría dar el impulso de salida a juegos de mundos virtuales como Second Life. Una de las cosas que hace que la gente no entre en los mundos virtuales es que requieren grandes descargas por parte de los usuarios para instalar los juegos, añadió Jackson. Poder disfrutarlos directamente desde un navegador Web eliminaría esto. Según él, las redes sociales podrían crear salas de chat en 3D y los vendedores podrían ofrecer visualizaciones en tres dimensiones de sus productos. "Si pensamos en la forma tradicional de navegación, con páginas planas y enlaces, no es un modo natural de interacción. Las personas están mucho más habituadas a dar una vuelta e ir eligiendo cosas, por lo que un navegador en 3D podría proporcionar, finalmente, una forma más natural de interacción", señaló.

Producción de células madre de la piel

La perspectiva de transformar las células epiteliales de un paciente en una terapia vital para tratar enfermedades incurables como el Parkinson está un paso más cerca.Los científicos han diseñado un modo seguro de producir células madre para la cirugía de trasplantes a partir de células epiteliales, sin usar embriones humanos ni los virus potencialmente dañinos empleados para transferir los genes especiales que transforman las células epiteliales normales en células madre. El año pasado, los científicos demostraron que podían modificar genéticamente células madre embrionarias introduciendo un puñado de genes en una célula epitelial con la ayuda de un virus, pero las células madre resultantes n se podían utilizar en medicina por miedo a que los genes virales se pudieran introducir también en el paciente. Sin embargo, según el Profesor James Thomson, de la Universidad de Wisconsin-Madison, cuyo trabajo se ha publicado en la revista Science, el último estudio ha mostrado que es posible producir estas llamadas células madre pluripotentes inducidas (iPS, por sus siglas en inglés) sin utilizar virus y sin introducir ningún gen externo en las células madre embrionarias, utilizando una técnica diferente de ingeniería genética.Muchos científicos creen que las células iPS, creadas sin la necesidad de embriones humanos, evitan muchas de las objeciones éticas y morales relacionadas con el uso de las células madre embrionarias. Los investigadores todavía están trabajando en cómo garantizar su seguridad si algún día llegan a utilizarse en la cirugía de trasplantes.Marion Zatz, del Instituto Nacional estadounidense de Ciencias Médicas Generales (NIGMS, por sus siglas en inglés), señaló: "Este último descubrimiento de un nuevo método para generar células iPS sin la inserción de vectores virales en el material genético de las células, realizado por el grupo de Thomson, es un avance importante hacia una reprogramación segura de las células para uso clínico".

Sangre artificial

Investigadores de la Universidad de Pensilvania han construido desde cero una proteína capaz de hacer lo mismo que ciertas proteínas del cuerpo humano: transportar y entregar oxígeno; lo que puede constituir un avance útil en el desarrollo de sangre artificial.Durante años, los científicos han intentado crear componentes de sangre artificial, con la esperanza de que dicho avance médico resolviese los problemas que presenta la sangre donada, como son la contaminación, el almacenamiento limitado y la escasez; y facilitase las transfusiones de sangre en la guerra y las urgencias. Actualmente, la mayoría de los sustitutos de la sangre incluyen versiones modificadas de hemoglobina natural, el componente clave de la sangre que lleva el oxígeno desde los pulmones al resto del cuerpo, pero las investigaciones continúan porque algunos estudios han sugerido que los sustitutos de la sangre existentes pueden incrementar el riesgo de infarto en las víctimas de accidentes a las que se les han administrado.El equipo de la Universidad de Pensilvania se ha centrado en crear, partiendo desde cero, proteínas capaces de transportar oxígeno y fundamentalmente sumergibles (una característica importante). Si el agua entra en la proteína, crea una forma de oxígeno que escapa y causa daño celular. Modificar las proteínas existentes no siempre tiene como resultado una respuesta predecible y a menudo falla. Las proteínas naturales son complejas y frágiles, señala Christopher Moser, bioquímico de la Universidad de Pensilvania y coautor del estudio. Los investigadores utilizaron tres aminoácidos para fabricar una estructura proteica en columnas de cuatro hélices y pusieron, en su interior, una estructura más pequeña llamada hemo, una gran molécula plana que constituye la parte activa de la hemoglobina. El hemo tiene un átomo de hierro en el centro, que es al que se enlaza el oxígeno. Los investigadores también hicieron la estructura de la proteína flexible, de modo que se pueda abrir para recibir el oxígeno y volver a cerrar sin que entre nada de agua. Para lograrlo, enlazaron las columnas helicoidales entre sí con lazos para restringir sus movimientos, lo que dio forma de candelabro a la estructura final. "Lo que hemos aprendido es que podemos lograr interiores secos en proteínas muy simples", señala el autor principal del estudio, P. Leslie Dutton, profesor de bioquímica de la Universidad de Pensilvania, cuyo trabajo se ha publicado en el último número de la revista Nature.Para utilizar la proteína artificial en el interior del cuerpo humano, los investigadores deberán asegurarse de que no es tóxica y de que puede mantener el oxígeno el tiempo suficiente como para ser útil y trabajar en un entorno celular. Además, la proteína no deberá ser identificada por el sistema inmunológico como contaminante para ser eliminada por los riñones, añade James Collman, profesor de química de la Universidad de Stanford, quien fabrica hemos sintéticos que se enlazan con el oxígeno.

Nuevo método para fabricar componentes eléctricos

Las células solares baratas y las pantallas flexibles se pueden hacer realidad a través de la investigación y el desarrollo de la electrónica orgánica. Ahora, según un artículo publicado en ScienceDaily, físicos de la Universidad de Umeå, en Suecia, han desarrollado un nuevo método sencillo para producir componentes electrónicos baratos.“El método es sencillo y, por tanto, puede ser de interés para una futura producción en masa de dispositivos electrónicos baratos”, señaló el fisico Ludvig Edman.La química orgánica es un campo de rápida expansión que promete importantes y asombrosas aplicaciones, como las pantallas flexibles y las células solares baratas. Una característica atractiva es que los materiales electrónicos orgánicos se puede procesar desde una disolución.“Esto hace que sea posible aplicar finas películas de pintura de materiales electrónicos sobre superficies flexibles como papel o plástico”, explica Ludvig Edman.Los componentes electrónicos con varias funciones se pueden crear, a continuación, estampando en la película una estructura específica. Hasta ahora resultaba problemático llevar a cabo este estampación de forma sencilla sin destruir las propiedades electrónicas del material orgánico.“Hemos desarrollado un método que nos permite crear patrones de forma suave y eficaz. Con el material orgánico estampado como base, hemos logrado producir transistores que funcionan bien”, señaló Ludvig Edman.Una película delgada de un material electrónico orgánico llamado fullereno es la primera que se ha aplicado sobre la superficie elegida. Las partes de la película que van quedar en el sitio se exponen directamente a la luz láser; luego, se puede desarrollar toda la película aclarándola con una disolución. Un patrón bien definido queda entonces en donde la luz láser golpeó la superficie.Una ventaja fundamental de este método de estampación es que es simple y escalable, lo que implica que se puede ser útil en la producción en un futuro de dispositivos electrónicos flexibles y baratos en un proceso de línea de montaje.Otros investigadores que participaron en el desarrollo del método son Andrzej Dzwilewski y Thomas Wågberg. Los resultados se publicaron en la revista Journal of the American Chemical Society.

Telescopio implantable en el ojo

Un telescopio en miniatura implantado en el ojo podría ayudar muy pronto a las personas con pérdida de visión por degeneración macular en su fase final. La semana pasada, un grupo consultor de la FDA recomendó por unanimidad a la agencia que aprobase el implante. Los ensayos clínicos del dispositivo, que es más o menos del tamaño de la goma de borrar de un lápiz, sugieren que puede mejorar la visión unas tres líneas y media en una gráfica optométrica."Esta es una de las pocas opciones para las personas con degeneración macular en fase final", señala Kathryn Colby, cirujana ocular del Massachusetts Eye and Ear Infirmary, de Boston, quien ayudó a desarrollar el procedimiento quirúrgico utilizado para implantar el dispositivo. La degeneración macular es la principal causa de ceguera en personas de más de 65 años. La enfermedad ataca el centro de la retina, llamado mácula, especialmente importante para leer, ver la televisión y reconocer caras. Aunque existen algunos tratamientos para ralentizar la progresión de la enfermedad, no hay ningún tratamiento disponible actualmente para los pacientes en las etapas más avanzadas de la enfermedad, que cuentan con daños irreversibles en la mácula. El implante, desarrollado por VisionCare Ophthalmic Technologies, una empresa de reciente creación con sede en Saratoga, California, consta de dos lentes dentro de un tubo de vidrio. Una vez en el interior del ojo, funciona como un teleobjetivo fijo, actuando en conjunto con la córnea para proyectar, sobre gran parte de la retina, una imagen magnificada de lo que sea que mire la persona que lo lleva. Puesto que en la enfermedad solo están dañadas las partes centrales de la retina, magnificar la imagen en el ojo permite que las células retinales que hay alrededor de la mácula detecten el objeto y envíen la información al cerebro (estas células suelen participar en la visión periférica y, normalmente, generan información visual de baja resolución en comparación con las células de la mácula, pero magnificar la imagen también hace quesea más fácil para las células interpretarla)."Este cambio en la visión es importante para los pacientes", señala Allen Hill, PCEO de VisionCare. Además de mejorar la visión, "ofrece la posibilidad de mantener un contacto visual normal, algo fundamental para la interacción social", señala Eli Peli, científico de The Schepens Eye Research Institute.

Aumento de pecho con células madre

Las mujeres que creen tener el culo demasiado grande y el pecho demasiado pequeño podrían disponer pronto de una opción para invertir la ecuación. Las células grasas se extraen del tejido adiposo; luego, se filtran utilizando la tecnología desarrollada por Cytori Therapeutics, con el fin de incrementar la proporción de células madre adiposas; y, por último, se inyectan en el pecho. De momento, el tratamiento, que se comercializará en colaboración con GE Healthcare, se ha utilizado solo en mujeres que han perdido el pecho debido a un cáncer; pero están a punto de iniciarse las pruebas con mujeres sanas en el reino Unido. Los anteriores intentos de utilizar células adiposas sin filtrar para el aumento de mama no duraron mucho: el tejido adiposo parece ser reabsorbido por el cuerpo, probablemente debido a la falta de unos vasos sanguíneos que alimenten las células inyectadas. Aumentando el número de células madre en la mezcla que se inyecta, Cytori señala que su enfoque permite que tanto la grasa como la vasculatura se arraiguen en el tejido mamario. Según un artículo publicado en Times, los pechos tratados con células madre son más naturales porque el tejido tiene la misma suavidad que el resto del pecho, señaló Kefah Mokbel, cirujano del London Breast Institute del Hospital Princess Grace. Según él, el tratamiento ofrece también una posibilidad de mejora considerable en los implantes: "Los implantes son un cuerpo extraño. Están asociados con complicaciones a largo plazo y requieren recambios". Aunque la técnica de células madre devuelve el volumen, no proporciona firmeza ni elevación. Mokbel cree que el tratamiento de células madre puede ser adecuado únicamente para incrementos de tamaño modestos, aunque realizará más investigaciones para averiguar si se pueden lograr aumentos mayores.La misma técnica se ha estado utilizando en Japón durante seis años, inicialmente para tratar a las mujeres con deformidades de pecho causadas por un tratamiento para el cáncer y, últimamente, para el aumento estético de mama en mujeres sanas.