Uno de los misterios más cuidados de Google ha sido desvelado esta semana: cómo son por dentro físicamente los servidores web y los datacenters que utilizan, que no son en absoluto estándares, y que son diseñados dentro de la propia compañía.
Así, en el siguiente vídeo podemos ver el interior de uno de los miles de servidores web de Google, construido en su mayor parte con piezas clónicas, y que cuenta con la peculiaridad de que dispone de una batería propia de 12 voltios que proporciona la energía eléctrica suficiente en caso de existir problemas con la red de alimentación. Además, cuenta con sistemas propios para combatir las bajadas de los niveles de tensión, los cuales suelen producir problemas en la memoria de los equipos.
En este otro vídeo se muestra cómo son los datacenters que utiliza Google, los cuales se construyen a partir de contenedores donde se introducen más de 1.100 servidores web en cada uno de ellos. Cada uno de estos contenedores necesita una energía de 250 kW (cada servidor web consume, por lo tanto, unos 215 Watts).
Estos datacenters prefabricados de Google se llevan utilizando desde el año 2005, precisamente cuando se corrió el rumor que aseguraba que la compañía estaba diseñando contenedores de unos 10 metros de largo, dentro de los cuales se preinstalarían centros de datos que serían repartidos por todo el planeta. Años más tarde, incluso se patentó este sistema de construcción de datacenters dentro de contenedors.
El objetivo de hacer públicas parte de las características de los datacenters y servidores web es intentar demostrar que Google se está preocupando y está trabajando en desarrollar tecnologías que ahorren energía a la hora de procesar y servidor la información mundial. Hace unos meses la compañía quiso aclarar que su consumo energético no era tan elevado como algunas fuentes aseguraban, y durante los últimos años están liderando proyectos para que se creen estándares de alimentación más sostenibles.
De hecho, Google tiene su propio departamento de diseño de hardware. Hace un par de años se hizo un llamado por medio de una oferta de empleo donde se invitaba a los candidatos a “construir la próxima generación de supercomputadores” dentro de la compañía, e incluso se llegó a plantear construir su propio microprocesador para instalarlo en los cientos de miles de servidores con los que se cuenta.
El nuevo iPhone, rediseñado por fuera, más veloz, con mejor resolución y con dos cámaras, entre otras características, fue presentado esta tarde en Estados Unidos durante la conferencia de desarrolladores de Apple.
El encargado de hacerlo, al igual que años anteriores, fue Steve Jobs, CEO de la compañía, quien destacó que tiene la mejor pantalla del mercado (3.5 pulgadas a 960×460 pixeles de resolución y 326 pixeles por pulgada),es 24% más delgado que su predecesor (9.3 mm), posee cámara frontal, cámara trasera con flash, dos micrófonos (superior e inferior para cancelación de ruido), y tarjetas microSIM.
La cámara trasera será de 5 megapixeles y puede grabar videos en HD (720p a 30 fps). Contará con autofoco, flash LED y 5X de zoom digital. Los videos se podrán editar en el iPhone gracias a la nueva aplicación iMovie (4.99 dólares), que permite agregar transiciones, efectos, fotos y música.
Otra de las nuevas carecterísticas se llama “FaceTime” y permite hacer videoconferencias a través del iPhone 4 a través de una red Wi-Fi (sólo con el nuevo sistema operativo) sin necesidades de configuraciones especiales. Se puede ocupar tanto la cámara frontal como la trasera y con el teléfono tanto en modo horizontal como vertical.
Su precio en EE.UU. es de 199 dólares (sin impuesto) por el modelo de 16GB y 299 dólares por el 32GB. Estará disponible a partir del 24 de junio en Estados Unidos, Francia, Alemania, Reino Unido y Japón y en dos colores como ya es tradicional: negro y blanco. Chile no se menciona para esta fecha y tampoco para julio (otros 18 países, entre los que está España, donde está la casa matriz de Movistar), aunque podría estar considerado dentro de los 24 u 44 países a los que llegará en agosto y septiembre, los cuales no fueron detallados.
Además, el nuevo iPhone será más veloz que el anterior, ya que incorporará el nuevo chip Apple A4, el mismo del iPad, que opera a 1 Ghz.
La batería también es uno de los elementos que se ha mejorado. Ahora durará 7 horas si se habla sobre una red 3G, 6 horas de navegación 3G, 10 si se hace vía Wi-Fi, 40 horas si sólo se escucha música y 300 si se deja en modo “stand by”.
Pero esto no es todo en términos de hardware, ya que además se le agregó un giroscopio de 6 ejes, es decir, la aplicación se mueve según los movimientos del usuario, no sólo si se mueve el teléfono.
– Sistema operativo
Desde que se lanzó el sistema operativo del iPhone fue llamado iPhone OS. Hoy fue rebautizado como iOS a partir de la versión 4, que es la que tendrá el nuevo celular de Apple. Las principales novedades de éste son la posibilidad de ejecutar dos o más aplicaciones de manera simultánea, la opción de agrupar apps por carpeta y las mejoras para el segmento empresarial. Este sistema operativo, en sus diferentes versiones, está presente en más de 100 millones de dispositivos, entre iPhone, iPod touch e iPad.
El iOS 4 estará disponible el 21 de junio y será gratuito para quienes tengan iPod touch (excepto los de primera generación), iPhone 3G y 3GS, aunque algunas opciones no funcionarán en estos dispositivos.
– iPad
No hay fecha concreta sobre su llegada a Chile, ya que sólo se dijo que hoy llegaría a 10 países y al final de julio a otros nueve, sin detallar cuáles. Se vende uno cada 3 segundos. Hasta ahora se han vendido más de 2 millones. A la fecha ya hay 8.500 aplicaciones especialmente desarrolladas para este tablet, las cuales se han descargado 35 millones de veces, algo así como 17 apps por cada dispositivo.
– App Store
Actualmente hay 225 mil aplicaciones en esta tienda. El periodo de aprobación, dicen, es de 7 días para el 95% de ellas. Cada semana se suben para su aprobación 15 mil apps en 30 idiomas diferentes. Se rechazan principalmente por tres razones: no cumplen la función que dicen realizar, usan API’s privadas y la más común: se “caen”. A la fecha sya se han realizado más de 5 mil millones de descargas de aplicaciones.
Se lanzaron tres nuevas aplicaciones: Dos videojuegos muy populares: Guitar Hero disponible desde hoy por 2,99 dólares y el clásico de Facebook “Farmville”, que cada día lo juegan 35 millones de personas y que estará disponible a fin de mes. Además se presentó Netflix, para arrendar películas en EE.UU.
– iBooks
En los primeros 65 días se descargaron más de 5 millones de libros de la aplicación iBook. Ser le añadió la posibilidad de leer libros electrónicos en PDF. Si se envía un ebook en PDF al correo electrónico, con sólo presionar una vez éste aparecerá en la aplicación. Se anunció además versión para iPhone y iPod touch (con iOS 4) además de que los libros electrónicos descargados para un dispositivo estarán disponible para los otros sin costo extra, sólo se paga una vez por título.
– Bing
Tal como se había rumoreado previamenmte al evento, el buscador de Microsoft, Bing, se sumará a las dos alternativas de buscador que actaulmente ofrece el teléfono móvil: Google y Yahoo!.
– iPhone 3G y 3GS
Oficialmente el iPhone 3G está descontinuado desde hoy, mientras que el 3GS bajó a un precio de 99 dólares (sin impuestos) por la versión de 8 GB que será la única que se ofrecerá en EE.UU.
– iAds
El nuevo sistema de ofrecer publicidad a través del iPhone, llamado iAds, debutará el primero de julio. El sistema ofrecerá el 60% de las ganancias de la publicidad a los desarrolladores y el 40% a Apple, quien se encargará de distribuir la publicidad y de dejarla en sus servidores. Esperan alcanzar casi el 50% de la cuota de mercado de publicidad para teléfonos móviles este año.
Un bug impide sincronizar los correos de Gmail y Outlook
Un bug que podría estar presente desde hace meses en Google Apps está produciendo problemas de sincronización de correos electrónicos entre los populares gestores de Google y Microsoft. Algunos mensajes almacenados en los servidores de Gmail no se habrían descargado en Outlook, haciendo que muchos mails permanezcan invisibles para los clientes o se vean tarde en la herramienta de Redmond.
El fallo está ocasionando que los usuarios de las compañías afectadas tengan que acceder a la interfaz de Gmail, para consultar todos los correos entrantes y asegurarse de que también les aparecen al abrir Outlook en su ordenador del trabajo.
La compañía de Mountain View reconoció el fallo el pasado 12 de marzo y prometió una solución para principios de la semana pasada, sin embargo, no ha sido capaz de encontrarla hasta la fecha, según recoge Infoworld. “Tras solucionar el problema de servidores lanzaremos una actualización automática que volverá a sincronizar el buzón de entrada para garantizar que cualquier correo que no haya sido descargado lo haga”, escribió un representante de Google hace unos días.
Google lanzó aplicaciones para sincronizar su servicio de correo con Outlook en junio de 2009, afirmando entonces que se trataba de un gran hito para allanar a las empresas el proceso de transición de Exchange a Gmail.
La última década ha sido bastante fructífera en cuanto al desarrollo de sistemas operativos, sin embargo, no todo ha sido bueno, no tampoco malo, por supuesto. Vamos a echar la vista atrás para ver qué sistemas operativos ocupan los puestos de mejores y peores sistemas operativos de la última década sin centrarnos en ninguna compañía en particular, es decir, será una lista heterogénea en la que comentaremos los atributos que han hecho que cada sistema esté situado en su correspondiente lugar.
Peores sistemas operativos de la década
Windows Millennium Edition (WinME)
Esta fue la última versión de Windows que corría sobre la base MS-DOS y no tuvo un buen diseño. Microsoft lo lanzó como versión para llenar el hueco entre versiones hasta la llegada de Windows 2000 / XP. Técnicamente llegó finales de los 90 por lo que hemos decidido encasillarlo en la lista como primera opción, para recordar la cantidad de problemas que Microsoft consiguió crear para llenar el hueco entre Windows 98 SE y Windows XP / 2000.
Windows Vista
Qué podemos decir de Windows Vista que no se haya dicho ya. La versión inicial de Windows Vista llegó al mercado como el sistema operativo más caro de diseñar y sin embargo los resultados fueron desastrosos, con una gran confusión inicial por el hardware necesario para correrlo, la falta de drivers y una alta demanda de recursos que casi hacía necesaria la actualización del equipo para poder hacerlo funcionar de manera decente.
Aunque la arquitectura del sistema era mucho más segura que la de su predecesor Windows XP, las preguntas sobre los permisos para realizar acciones eran cuanto menos molestas y muy insistentes. El sistema UAC ha sido muy criticado y por ello Windows 7 ha mejorado notablemente en dicho aspecto.
NetWare 6.5
El mundo estaba buscando la unión de Novell y la solidez del sistema operativo de red NetWare junto con Linux. Novell acababa de comprar SuSE Linux y miró por aquel entonces para ver si podría hacer frente al por entonces omnipresente Microsoft Active Directory. Sin embargo quedó en un sueño sin realizar.
Windows Mobile
El paso que ha habido en los últimos años desde las PDAs tradicionales hasta los actuales smartphones ha llegado de la mano de múltiples compañías y múltiples sistemas operativos de compañías como Palm, RIM, Symbian. Sin embargo en estos años nació el terminal iPhone y prácticamente acaparó miradas de todo el mundo, quedando el resto de lado.
Windows Mobile además ha quedado rezagado en el desarrollo y multitud de terminales han sido lanzados con características prometedoras que tienen que funcionar bajo el software de Microsoft. Además, Windows Mobile 6.5, prometía un gran cambio, ha llegado tarde al mercado y según parece Windows Mobile 7 no aportará esas caracterícas únicas que hacen de un sistema operativo la opción que decante al usuario para adquirir uno u otro terminal.
GNU Hurd
Si has utilizado Linux, sabrás que las utilidades GNU son la base de cualquier distribución actual en el mercado. GNU reescribió utilidades Unix como esfuerzo por parte de Richard Stallman para ofrecer software libre y gratuito. Sin embargo hubo un proyecto, GNU Hurd, que hacía uso de un kernel libre que nació como Linux desde Unix, kernel Hurd, que podría definirse como el kernel que más tiempo lleva en desarrollo sin llegar a ninguna parte.
Mucha gente considera que nunca verá la luz y que se trata del mayor vaporware del mundo del software libre.
Mejores sistemas operativos de la década
Windows Server 2008 R2
La última versión del sistema operativo para servidores de Microsoft ofrece lo mejor en cuanto a seguridad y autenticación empresarial toca. Ofrece la facilidad de gestión de la que carecen sistemas Linux que ofrecen la misma funcionalidad, pudiendo gestionar usuarios a golpe de clic de manera que Linux, Solaris y BSDville quedan por detrás necesitando configuración manual de muchas de las características.
Microsoft dispone de un grueso de sus ingresos a partir de la venta de sistemas operativos, y por ello podría parecer extraño que no destaquemos Linux en este campo, sin embargo, Microsoft ha hecho un gran trabajo con Windows 2008 R2 junto con características de virtualización como Hyper-V.
Mac OS X
La última generación del sistema operativo de Apple para PCs tiene la capa interior BSD Darwin corriendo y en la parte visual de cara al usuario un sistema operativo bonito, sencillo de manejar, sin problemas para realizar la mayoría de tareas. El problema de Mac lo tienen las compañías de antivirus y los consultores de PC debido a la estabilidad y seguridad del mismo.
Además de ello el sistema operativo es barato en comparación con las actualizaciones de Microsoft, se podría catalogar de ganga.
Solaris/OpenSolaris 10
Este es otro caso de excelencia a través de lo que se conoce como la solidez de una roca. Sun (pronto Oracle tras la adquisición) ha diseñado el derivado de Unix más fiable del mercado. Quizá algo aburrido en algunos planos, pero ofrece componentes como dTrace, Sun Containers y ZFS. Las innovaciones técnicas y el desarrollo de OpenSolaris completamente gratuito y abierto hacen que esté entre los mejores de la década.
GNU/Linux
Esta última década es la que podríamos llamar la del despegue de GNU/Linux, ya que desde que Linux Torvalds generó la primera versión de kernel, las cosas han avanzadoy mucho. A día de hoy tenemos escritorios tan completos como los de soluciones de pago, léase Windows o Mac OS X, hablamos de Gnome, KDE junto con Compiz. La compatibilidad con dispositivos está siendo mejorada día a día y es que, además, los últimos kernels están haciendo un sistema rápido y que permite aprovechar mejor la potencia del equipo frente a otras opciones.
Existen distribuciones para todos los gustos, incluso enfocados sólo para tareas concretas y no como sistema de escritorio general. GNU/Linux está comenzando a acapara muchas miradas y sólo hay que echar un ojo a Internet, buscando infromación sobre Ubuntu, Novell/SUSE, Mandriva, Knoppix, Red Hat, etcétera.
Google Android
El sistema operativo abierto para smartphones que ha desarrollado Google es el último en haber salido al mercado, pero no por ello deja de ser sorprendente de la buena acogida que ha tenido teniendo en cuenta que se trata de un sistema operativo basado en Linux. Android está mostrando ser un sistema operativo muy completo, y hay multitud de desarrolladores trabajando en aplicaciones para el mismo.
Actualmente iPhone es quien domina el mercado, pero será cuestión de años ver cómo Android y el resto de sistemas operativos abiertos se acercan paulatinamente al mismo.
En mi ingestión y digestión diaria de información en Google Reader, me encontré con un post bastante interesante en cosas sencillas con curiosidades sobre el gigante Google. Entre los puntos que más destaco es como le dan tiempo a sus trabajadores de imaginar y crear, todo esto con excelentes resultados, una iniciativa que debiera ser adoptada por muchas, sino por todas las empresas que en sus visiones quieran marcar la diferencia.
Curiosidades de Google
He aquí las 40 curiosidades de Google ¿Cúal destacarías?
El nombre inicial de Google era BackRub, inicialmente ideado como ranking de sitios web en los resultados de búsqueda.
Google proviene de la palabra “googol” un término matemático para indicar 10 elevado a 100.
Un documento de los fundadores de Google, Larry Page y Sergey Brin, relacionado con su fundación y teoría es el décimo más descargado de la Universidad de Standford.
Tanto Page como Brin son hijos de profesores de Universidad.
El famoso lema de Google “Don´t be Evil” (“No seas malvado”), fue adoptado por la compañía dentro de su código de conducta. En realidad, lo que quiere decir es “Don´t be Microsoft” (“No seas Microsoft”) en clara referencia a su modelo de negocio.
Google tiene más de 10.000 trabajadores a nivel mundial.
Google estimula a sus trabajadores a utilizar el 20% de su tiempo laboral en pensar y desarrollar nuevos proyectos.
El resultado de esta iniciativa es la creación de proyectos de la talla de Gmail, Google News y AdSense.
De hecho, la compañía asegura que la mitad de los productos que ha lanzado Google provienen de ese 20% de tiempo libre para los empleados.
Google nombró a un responsable para mantener ese entorno innovador.
La sede de Google en Mountain View se llama Googleplex, que es el término matemático para hacer referencia a 10 elevado a googol.
Larry Page ha invertido en Tesla Motors, compañía especializada en coches deportivos eléctricos de alto rendimiento.
Durante su licenciatura, Larry Page formó parte de un equipo de diseño que ganó una carrera de coches basados en energía solar.
El interfaz de Google también se encuentra en idioma Klingon (para los no “˜trekkies”™, se trata de un idioma propio de la saga Star Trek).
Google Android ofrece a los desarrolladores y usuarios una plataforma basada en código abierto.
Google ha adquirido 59 compañías desde 2001.
Su primera adquisición fue la empresa Deja, cuya infraestructura Usenet se convirtió en la base de Google Groups.
La mayor adquisición de Google fue por la compañía DoubleClick, en la que se gastó 3.100 millones de dólares. Gracias a este movimiento potenció considerablemente el negocio de anuncios online.
En 2006 compró Youtube por 1.650 millones de dólares, iniciativa que colocó a Google en el punto de mira de muchas compañías especializadas en medios.
El uso de Google como verbo se hizo oficial en la lengua anglosajona en 2006 cuando la palabra fue añadida al diccionario de inglés Oxford.
Brin y Page están empatados en la lista Forbes de la gente más rica. Se encuentran en el puesto 26 con unas pertenencias de 12.000 millones de dólares.
Google reivindica que cada consulta en el buscador requiere de 1 Kj de energía.
Los paneles solares que adornan los techos del Googleplex generan suficiente energía para abastecer a 1.000 hogares californianos.
La revista Harper estima que el centro de datos de Google en Dallas (Oregón) consume la misma energía que la ciudad de Tacoma (Washington).
El chef de cocina de Google solía cocinar para el grupo musical Grateful Dead y también para el cantante George Clinton.
La compañía gasta en torno a 72 millones de dólares al año para dar a sus trabajadores dos comidas gratuitas al día.
Google alquila cabras para cortar el césped y reducir el riesgo de incendios en su propiedad de Mountain View.
El primer inversor de Google fue Andy Bechtolsheim, con un cheque de 100.000 dólares, aunque tuvo que esperar hasta que Brin y Page fundaran oficialmente la compañía.
El botón “Voy a tener suerte” le cuesta a Google la friolera de 110 millones de dólares por año al evitarse la página intermedia de resultados, donde se muestra publicidad.
Para probar el primer prototipo de Google, Page y Brin utilizaron un array de 10 discos duros con una capacidad de 4 GBytes cada uno. Los montaron en una caja construida con piezas de Lego.
Gartner estimó en 2007 que Google contaba con al menos un millón de servidores.
Esa cantidad de servidores, según Gartner, supondría el 2% del número total de servidores a nivel mundial.
Sergey Brin se casó con la hermana pequeña de Susan Wojcicki, que les alquiló el garaje para que montaran su primer sistema.
Google creó una división de capital riesgo denominada Google Ventures, que está invirtiendo 100 millones de dólares hasta abril de 2010 en jóvenes compañías tecnológicas.
Google disfruta de un 65,4% en el mercado de las búsquedas, mientras que Microsoft Bing tan sólo posee actualmente el 10%.
Google News genera 1.000 millones de páginas vistas al mes a las publicaciones de noticias.
Google formó su brazo filantrópico, Google.org, en 2004, aportando 1.000 millones para su fondo común.
Google.org se está centrando fundamentalmente en investigaciones sobre el medioambiente y la salud.
Su primer proyecto fue el desarrollo de un coche eléctrico capaz de conseguir una velocidad de 160 Km/h.
El día de los inocentes en EE.UU. (1 de abril), es un gran día en Google: Este año lanzó CADIE, un sistema de inteligencia artificial capaz de insertar mensajes subliminales en las ofertas de ventas e indexar el contenido de tu cerebro. Lógicamente, era una broma.
Durante el IGF 2009 importantes organismos como la W3C, ICANN y la Internet Society se sentaron junto a la ONU y demases para discutir temas relevantes sobre el futuro del Internet, lo que terminó con un “historiador del Internet“ escribiendo los siguientes diez mandamientos:
Independencia de las aplicaciones
Nuevas aplicaciones pueden agregarse en cualquier momento siempre y cuando tengan un valor central
Innovación sin permiso
Estándares abiertos
Accesible y globalmente inclusiva ““ cualquiera puede usarlo
Elección del usuario ““ yo elijo qué aplicaciones uso y puedo llevármelas conmigo a donde quiera
Facilidad de uso ““ puedo usarla en mi lenguaje, en un dispositivo con el que me sienta cómodo
Libertad de expresión
La habilidad de cambiar rápidamente
Confiable y segura: es algo en lo que debemos trabajar para que sea parte del núcleo del Internet
La lista fue generada luego de que se discutiera eternamente sobre la importancia de la neutralidad de la red, haciendo incapié en proteger el núcleo del Internet. Es común creer que el Internet es lo mismo que “el google” o “el facebook”™”, pero la web no es más que una de las miles de aplicaciones que corren sobre el Internet como el FTP, servidores de correo o juegos en línea. Con el tiempo las aplicaciones van cambiando, unas ganan popularidad, otras pierden y otras desaparecen total y completamente de los tubos, por lo que es primordial proteger la maquinaria en la que corren todas nuestras aplicaciones.
El único problema con esta propuesta es que a pesar de tener el respaldo de la ONU todos sabemos qué tan bien han funcionado sus esfuerzos para detener a Estados Unidos cuando están decididos a hacer algo sin importar las consecuencias, por lo que tendremos que seguir esperando a que un ciber profeta nos rescate de las garras de las organizaciones pro copyright.
A la todopoderosa Google no paran de crecerle los enanos, el último en aparecer ha sido IBM que pretende plantarle cara en el mundo del correo electrónico. Se que parece una tontería, entre Gmail y Outlook el mercado está más que copado, pero IBM pretende competir en precio y fiabilidad y no parece que vaya en broma. Lotus Notes pretende ayudarse de las debilidades de su rival, veremos que le sale al final.
IBM es consciente de que la caída de servidores que Google sufrió en 2008 disgustó a mucha gente. Millones de usuarios de carácter empresarial no pudieron acceder a su correo durante 2 horas, con todo lo que eso significa. Por lo tanto, este gigante de las telecomunicaciones ha decidido basar su campaña en el precio, un 25% más barato que Google, y en la certeza de que nunca fallarán.
Por solo 36 dóalres al año por usuario, podremos disfrutar de la nueva estrategia competitiva de IBM. Se llamará LotusLive iNotes y aunque no presentará skins, avisos y sonidos será igual de eficaz, por un precio notablemente menor y con una seguridad y fiabilidad notablemente mayor, o al menos eso intentan vendernos.
La suerte está echada. IBM se ha lanzado a la piscina y ha decidido batirse en duelo con Google en uno de los campos en que este es más fuerte, el correo electrónico. El precio es ostensiblemente menor, pero lo que verdaderamente atraerá a los psicóticos, o precavidos según se mire, hombres de negocios será la confianza que da estar bajo el paraguas de International Business Machine Corp, y es que a la gente le van mucho los nombres.
Gmail el servicio de correo online de Google fue presentado un primero de abril del año 2004, y en sus 5 años como servicio presenta un futuro bastante prometedor, según diversas estadísticas.
Gmail y según datos de una firma de investigación y estadísticas llamada comnscore, prevé un crecimiento exponencial en los próximos años, y se calcula que para finales de 2009 será el segundo lugar en número de usuarios en los Estados Unidos de América, y para el 2011 sería el primer lugar (posiblemente para todo el mundo) desplazando a Hotmail y Yahoo, primer y segundo lugar en la actualidad respectivamente.
Estos últimos dos competidores presentan mas de 250 millones de usuarios cada uno, y Gmail, va creciendo aceleradamente con un aproximado de 110 millones de usuarios en la actualidad, en el ultimo año Gmail a crecido un 40% mientras que, Hotmail, a caído un 7% y, Yahoo, tan sólo a registrado un 7% de crecimiento.
Gmail se inicio en fase beta (y aún lo está) y se ha destacado por un servicio muy estable e innovador, al principio sólo se podía acceder mediante invitaciones, las cuales eran muy cotizadas y buscadas, así como escasas, luego se acabo la fase de invitaciones para que Gmail se enfocara al crecimiento y a partir de aproximadamente el año 2007, y en la actualidad, ya cualquier usuario se puede registrar y crear su cuenta en Gmail.
Gmail tiene muchas características como son las de espacio de sobra (1 GB, cuando nació) para guardar tus correos, lo que obligo a sus mas cercanos competidores a aumentar su cuota de espacio de 2 a 100 MB (en aquel entonces te daban máximo 2-10 megas) en sus servidores para dar competencia a lo que Gmail venia obligando, en la actualidad Gmail te ofrece 7.2 GB y la capacidad de adjuntar archivos con un peso de 20 MB.
Entre otras características exclusivas de Gmail podemos citar las siguientes.
Alta capacidad (7.2 GB y 20 megas para adjuntos)
Buen “filtreo” de SPAM (el SPAM difícilmente llega a tu bandeja de entrada)
Buen buscador de correos (si no te acuerdas donde lo dejaste pon una palabra y lo encontraras)
Mensajes en modo conversación (envíos y respuestas con un contacto se almacenan en una conversación)
Centralización del correo ( puedes recibir y enviar como usuario de otras cuentas)
Chat texto,video y voz, en el mismo webmail.
Innovación en temas “vivos” ( Temas agradables que cambian según el tiempo)
Con todos estos datos y buenas noticias para nosotros , pues el usuario es el beneficiado, sólo resta decir.. !Felicidades a Gmail por estos 5 años¡
Infoxicandome como cada día encontré un artículo excelente acerca de la evolucion en el tiempo que ha tenido Google. El ingeniero Jeff Dean nos cuenta datos curiosos del ayer, hoy, el mañana y los desafios futuros del “Gigante Innovador de la Web”.
Jeff Dean es uno de los más prestigiosos ingenieros que trabajan en Google, y es una de las personas que mejor conoce la arquitectura del clúster de servidores que tiene su buscador web.
La semana pasada, Dean ha estado en Barcelona en unas conferencias en las que ha hecho públicas algunas cifras bastante llamativas del buscador web de Google y de su funcionamiento, que están resumidas en este post y este post de los blogs personales de dos de los asistentes.
Algunos de estos curiosos datos son:
:: En el periodo 1999-2009 han cambiado:
el número de consultas en el buscador, que se ha multiplicado por 10.000
el tiempo entre actualizaciones de un documento web, que se ha reducido 10.000 veces. Antes transcurrían meses hasta que se actualizaba en el índice un sitio web que había sido modificado, y ahora son solamente unos pocos minutos.
la potencia de procesamiento, que se ha multiplicado por 1.000
el tiempo de procesamiento de una consulta, que se ha reducido 5 veces. El tiempo medio hace 10 años era de 1 segundo, y ahora tarda unos 200 milisegundos. pagerank
:: Cosas que había a finales de los 90:
existía un proceso batch que rastreaba las páginas web, y que se detenía cuando había ‘demasiadas’ páginas
existía un proceso de indexado de estas páginas hecho con herramientas Unix, que era bastante propenso a fallar y a ser contradictorio
el formato del índice original (año 1997) era un simple sistema ‘byte-aligned’ que codificaba información del campo ‘ocurrencias de una palabra’, lo que suponía un montón de accesos a disco.
:: Al de unos pocos años:
se redujo un 30% el tamaño del índice, gracias a que se construyo otro de longitud variable basado en bloques que utilizaba tablas para palabras con un gran número de ocurrencias. Además de la reducción del tamaño, el índice era más fácil de decodificar
se añadieron servidores de cacheo tanto para los resultados como para los ‘snippets’ de los documentos que aparecen en estos resultados
a principios de 2001 comenzaron a utilizar un índice construido en memoria donde los servidores de indexado (junto a los servidores de documentos, servidores de cacheo, etc.) hablaban directamente con los servidores web donde los usuarios realizan las peticiones
el índice fue particionado por documentos en lugar de por términos
:: Cosas que se han hecho últimamente:
se utiliza tecnología contruida dentro de Google. Tanto la física (el diseño de los racks, las placas madre) como la lógica (modifica el kernel de Linux, sistema ‘Google File System’, sistema ‘BigTable’)
se utiliza el entorno de desarrollo MapReduce para indexar
en 2004 se comenzó a utilizar a un sistema jerárquico para servir los índices, y que estaba basado en índices constuidos sobre ‘Google File System’
actualizaciones del índice mucho más rápidas
en 2007 se añadió el servidor ‘super root’ que comunica con todos los servidores de índices (Google News, buscador de imágenes, buscador de vídeos) para permitir ‘Google Universal Search’
:: Pasos que Google sigue para experimentar con cambios en los algoritmos del buscador:
se gesta una idea de nuevo ránking
se generan datos para ejecutar pruebas rápidamente utilizando MapReduce, BigTable, etc.
se realizan pruebas de los resultados tanto con humanos como con consultas aleatorias para comprobar los cambios en el ránking.
se experimenta este cambio con un pequeño porcentaje de las búsquedas reales (por eso a veces los usuarios vemos experimentos)
se realizan ajustes sobre la implementación para pre-procesar los datos y hacerlos factibles a plena carga, incorporando a su vez la información necesaria al índice
:: Futuros retos:
manejo de información en diferentes idiomas. Actualmente hay una funcionalidad parecida, pero se pretende mejorarlo en muchos aspectos
desarrollo de sistema capaz de mostrar en los resultados documentos tanto públicos (rastreados de la WWW), como privados (por ejemplo, archivos de ‘Google Docs’) o semi-privados (compartidos).
construcción automática de sistemas de tratamiento de la información para diferentes necesidades.
Google encontrará antes de buscar. Parece un acertijo pero es el nuevo objetivo de los ingenieros del principal buscador, y también de sus competidores. Con los datos que tienen en sus servidores, más lo que saben de cada uno de sus usuarios, en poco tiempo podrán ofrecer información relevante al internauta antes incluso de que abra el navegador. El precio a pagar es alto: renunciar a la privacidad.
El ingeniero jefe de búsquedas de Google, Amit Singhal, estuvo ayer en Madrid para dar una charla sobre el pasado, presente y futuro de las tecnologías de búsqueda. Sólo dedicó 15 minutos, más las preguntas, al porvenir, pero el panorama que dibujó será muy diferente al actual. Hoy Google ofrece información pasada o, como mucho, la recién publicada en internet, gracias al nuevo sistema de búsqueda en tiempo real que presentó en abril. Pero en dos años podrá anticiparse a las necesidades del usuario.
“La privacidad no debe frenar la innovación”, dice un ingeniero de Google
Singhal puso varios ejemplos. En uno, el usuario comparte su agenda de actividades con el buscador. De esta manera, conoce cuándo tiene un rato libre para, por ejemplo, comprar algo que tenía apuntado. Gracias al móvil, Google puede localizarlo y ofrecerle tiendas a su alrededor. El trabajo más duro, el de mostrar las ofertas en su web, lo hace el dueño de la tienda. En otro ejemplo, ante una reunión en un punto concreto de la ciudad, Google News sabrá que, minutos antes de la cita, se ha producido un gran accidente en la zona. El buscador podrá avisar al usuario mostrando el suceso sobre el mapa, dándole alternativas para llegar.
La tecnología ya existe
“La tecnología necesaria para conseguirlo ya está disponible”, aseguró Singhal. Pero cree que el servicio se pondrá en marcha dentro de entre dos y cinco años. El retraso no es esencialmente tecnológico. “Antes necesitamos investigar más para que el servicio respete la privacidad”, explicó. La clave del éxito de esta anticipación a los deseos es que el buscador sepa lo más posible del usuario: donde está en ese momento, su historial de búsquedas anteriores en internet o su agenda personal.
“Lo que uno busca ya lo han buscado otros muchos antes”, dice Yahoo
Singhal recordó que un servicio así sólo puede funcionar con el consentimiento expreso del internauta. Pero también reconoció que sin ese oksu eficacia sería muy reducida. “En la historia de la tecnología, con cada cosa nueva surgían problemas”, comenta. Y puso el ejemplo de la aparición de la imprenta, cuando la iglesia lanzó advertencias de que podrían surgir biblias con contenido corrompido. “Todas las tecnologías pueden usarse de forma perversa; los buscadores, como la medicina, han mejorado la vida, pero podrían ser usados para el mal”, añadió.
El ingeniero de Google parece emplazar al usuario a elegir. “La clave está en que la privacidad sea una prioridad pero, al mismo tiempo, no hay que dejar que frene la innovación tecnológica que mejora nuestras vidas”.
Adivinar la intención
“Internet sabrá lo que todo el mundo está haciendo”, asegura Ballmer
Para el responsable del centro de investigación que Yahoo tiene en Barcelona, Ricardo Baeza-Yates, el objetivo es que el usuario deje de trabajar. “Que la búsqueda sea implícita, que te la dé antes de ir a buscarla”, explica. Para ello hay que imaginar los deseos del internauta. Pero no se trata de jugar a ser adivinos. “Anticiparse significa saber qué hacías antes para ver qué vas a hacer después”, aclara. Si alguien busca en Yahoo un vuelo, lo más probable es que a continuación necesite un hotel, ejemplifica.
La base de este razonamiento está en la biología: somos seres de costumbres. “Muchas de las cosas que hacemos son previsibles”, señala Baeza-Yates. Además, las personas no son muy diferentes unas de otras. Lo que uno busca ya lo han buscado otros muchos antes. “Si consigues deducir cómo buscan los grupos, el problema de la privacidad deja de serlo”, asegura el ingeniero de Yahoo.
En una reciente charla en la Universidad de Sao Paulo, el presidente de Microsoft, Steve Ballmer, puso un ejemplo de cómo pueden aprovecharse los buscadores de este hecho biológico. Cuando la compañía lanzó Bing incorporó un corrector ortográfico similar al que lleva su Microsoft Word. Pero a diferencia del procesador de textos, este corrector se apoya en su conexión a internet, lo que permite analizar los fallos de muchos. “Y ahora tenemos literalmente millones y millones de personas equivocándose con las mismas palabras, lo sabemos en tiempo real, y el corrector es mejor. La nube [en referencia a la informática en la red] aprende y te ayuda a aprender”, dijo. Con este ejemplo, Ballmer dibujó el porvenir de las búsquedas: “En el futuro, internet sabrá qué estás haciendo cada vez más, con tu permiso, entenderá lo que estás haciendo, y sabrá mejor cómo servirte, o verá lo que todo el mundo está haciendo y usará este conocimiento para servirte mejor”, declaró.
Inteligencia colectiva
Los primeros ejemplos de esta inteligencia colectiva almacenada en los servidores de los buscadores ya pueden verse. Google Suggest , por ejemplo, sólo necesita que se ponga la palabra España en la casilla para mostrar sugerencias que intentan adivinar lo que se está buscando. Antes de acabar la frase, la web ofrece acabarla con “Mundial 2010” o con alguno de los contrincantes con los que se ha topado el equipo español de fútbol en Suráfrica.
En este caso, Google se ha apoyado en las recientes búsquedas que han hecho millones de personas en los días pasados para anticiparse. Además cuenta con otras herramientas. Así, aprovecha el historial de navegación, por ejemplo, para conocer qué páginas se han visitado previamente. La dirección IP (que identifica al ordenador en internet) les ayuda a ubicar al internauta para que la información le resulte cercana.
El último elemento clave es la información creada por los propios usuarios en redes sociales y blogs. Google, como Yahoo y Bing, ya no buscan sólo en viejos archivos; ahora rastrean la información en tiempo real. Mediante acuerdos con sitios como Facebook, Twitter o las principales redes de blogs, los buscadores pueden saber qué se está cociendo en internet al instante. En Google, por ejemplo, aparecen las actualizaciones de Twitter a los dos segundos de producirse. El problema que genera esta inmediatez es que es difícil saber qué mensaje en Twitter o qué post en un blog es más relevante.
Pero para que se cumplan los vaticinios de Singhal, Baeza-Yates y Ballmer, las webs han de entender también lo que se busca. “Adivinar lo que el usuario quiere con sólo dos palabras es complicado”, recuerda Baeza-Yates. El problema es que ambas partes, personas y máquinas, “han aceptado este tipo de comunicación minimalista”, añade. Para él, lo importante es darle significado a las búsquedas que hoy son sintácticas.