Archivo de la categoría: Tecnología

Bye bye Web 2.0. Ahora que ya estás muerta

No es un titular llamativo para atraer visitas, es la constatación de una realidad. Hoy casi nadie utiliza el término Web 2.0, salvo algún aspirante a geek recién aterrizado,  algún evangelizador trasnochado o en el reclamo de algún evento. Los términos que se han impuesto son medios sociales y redes sociales (RRSS). Es cierto que persiste el meme 2.0 asociado a temas o prácticas concretas como: Empresa 2.0, RR.HH 2.0, Escuela 2.0, Turismo 2.0, Trabajador 2.0, Política 2.0, o Etcétera 2.0. Para algunos el 2.0 indica una presencia y uso de los medios sociales, para otros, además de utilizar las TIC, es asumir una serie de valores como: colaboración, comunicación, aportación, transparencia, o la heterarquía en oposición de jerarquía, entre otros.

Para entender el concepto de la Web 2.0 y el story telling que se ha desarrollado a su alrededor, hay que recurrir a la historia para resituar los temas con una cierta perspectiva. Antes de que surgiera la Web 2.0, teníamos la Web 1.0, que además de las herramientas básicas de comunicación e interacción como el correo electrónico; la mensajería electrónica; los chats; los BBS (Bulletin Board System), una especie de “tablón de anuncios” que permitía descargar software y datos, leer noticias, intercambiar mensajes con otros usuarios, disfrutar de juegos en línea, leer los boletines, etcétera; también se podía aportar contenidos en páginas Web, tanto personales como de empresas, o en los portales sindicadores de contenidos como Yahoo! o Excite. Los usuarios de Internet en aquella época no eran numerosos, en 1996 se estimaban unos 56 millones en todo el mundo (casi medio millón en España), cuando estalló la burbuja “punto com”, en el año 2000, el número de usuarios rondaba los 400 millones (5 millones en España).  En el entorno tecnológico disponible, a finales de los años 90, ya era posible desarrollar los valores asociados al 2.0, al margen de ciertas limitaciones tecnológicas, al mismo tiempo que los usuarios también se montaban sus “redes sociales” a través de los chats, foros, la mensajería electrónica o algún que otro portal que actuaba, en la práctica, como una verdadera red social para sus usuarios como el caso del portal Pobladores.com.  En la Web 1.0, en general, la aportación de contenidos no era fácil, en muchos casos requería algún que otro conocimiento técnico y básicamente la realizaban los geek o las empresas y marcas en sus sitios Web o se sindicaban en los portales especializados, al mismo tiempo que contrataban publicidad en los portales generalistas esperando que los usuarios diesen el clic en el correspondiente banner para  recibir visitas en sus sitios.

La Web 2.0, un término que surge en 2004, consolidó como concepto una tendencia que empezaba a emerger en la Red: la Web como servicio para que los usuarios pudiesen aportar sus contenidos; la interoperabilidad de las plataformas, aplicaciones y dispositivos para que se pudiesen compartir dichos contenidos; interfaces más ergonómicos para facilitar la interacción entre los usuarios y consolidar entornos para facilitar el desarrollo de grafos sociales alrededor de una serie de temas o en la convergencia de intereses. Al mismo tiempo, experiencias como la Wikipedia (en funcionamiento desde el 2001), habría nuevos espacios y posibilidades para facilitar el desarrollo de conceptos como la colaboración, o como la inteligencia o construcción del conocimiento colectivo. En cierta medida, desde un punto de vista, representó un salto cualitativo, en lo tecnológico y una revolución para el marketing online abriéndole las puertas para un cambio de paradigma en sus prácticas.

En efecto, si consideramos que hasta el momento,  el marketing buscaba captar el interés de los usuarios, principalmente mediante banners publicitarios en los grandes portales; campañas virales donde el correo electrónico tenía un papel central; o los enlaces patrocinados junto a los posicionamientos destacados en los resultados de las búsquedas. Esta captación del interés de los usuarios de Internet perseguía atraer las audiencias a los sitios de las empresas y las marcas, al mismo tiempo que conseguir una cierta segmentación de los targets de acuerdo con las pautas de navegación de los internautas. Sin embargo, el fenómeno de las redes sociales y las plataformas de servicios ha conseguido que la mayor parte del casi el 30% de la humanidad (2.100 millones de usuarios) esté concentrada en unas pocas docenas de sitios web (redes sociales generalistas o especializadas), la mayoría con un perfil sociodemográfico y psicográfico bien acotado, y que por sus conversaciones y aportación de contenidos, la mayoría relativo a sus gustos y actividades lúdicas y de ocio, son fáciles de rastrear, pudiendo llegar, en términos de posibilidades, a la microsegmentación perfecta (la persona en singular).  Este escenario de concentración de potenciales audiencias bien segmentadas en muy pocos sitios web, es algo que el marketing nunca pudo imaginar hace una década. Además, en el cambio de paradigma del marketing, otro de los cambios que se está produciendo es que los propios usuarios de los medios sociales se convierten, en cierta medida, en portavoces y propagadores de las marcas, tanto en sus supuestas cualidades como en sus supuestos defectos.

Es decir, la Web 2.0 ha aportado en estos 6-7 años, un cambio sustancial en el entorno tecnológico facilitando la interacción entre usuarios y el poder compartir los contenidos aportados por ellos mismos, al mismo tiempo, que creaba un espacio acotado donde se concentra una potencial audiencia bien definida para desarrollar nuevas estrategias y tácticas de marketing online. Sin embargo, es muy dudoso pensar que se hayan potenciado los supuestos valores asociados al meme 2.0. En todo caso, se ha incrementado la “presencia” o la manifestación de algún que otro valor “2.0” porque en esta década se ha multiplicado por cinco el número de usuarios. ¿Cuántas empresas podemos citar que hayan incorporado en su ADN organizativo aspectos como la colaboración, la transparencia o la heterarquía a pesar de su presencia en la Web 2.0?. Es importante recordar que en la segunda mitad de la década de los 90, cuando Internet se abrió al gran público, ya había usuarios que colaboraban, comunicaban y aportaban contenidos y conocimientos, eran muy pocos millones, más aún, me permito reivindicar, como anécdota personal, que en 1989, cuando empecé a utilizar el servicio de acceso a Internet de Goya Servicios Telemáticos, para enviar correos electrónicos y documentos para un proyecto europeo o acceder a una rudimentaria BBS, en una época en que Internet estaba abierto únicamente a las universidades, centros de investigación y a alguna que otra empresa, algunas de las personas ya practicábamos algunos de dichos valores, al margen del entorno tecnológico.

Hoy, la Red ya ha alcanzado un cierto grado de madurez, ya no es cosa de geeks o nerds, es una tecnología más, con un gran potencial, que se ha incorporado en las vidas de las personas, como en su momento el coche o el televisor. Cada uno la utiliza según sus necesidades, una gran mayoría básicamente en actividades de ocio y como extensión de sus relaciones interpersonales y familiares. Los contenidos han crecido de forma exponencial en términos cuantitativos, pero no en términos cualitativos. Algunos profesionales la utilizan para extender sus redes de contactos y crear su “marca” personal, otros los utilizan para abrirse un nicho profesional como evangelizadores o buscavidas como un modo de vida, mientras que las empresas de devanan los sesos para obtener ventajas competitivas, así como los marketinianos en sus estrategias y técnicas para controlar dicho medio.

La Web 2.0, por su configuración tecnológica, puede facilitar el desarrollo y la difusión de los valores que hemos comentado, pero la génesis de dichos valores se deben producir previamente en los diferentes ámbitos socioeconómicos, culturales y políticos con independencia del entorno tecnológico. No es el cambio por la tecnología, es el cambio utilizando la tecnología. Hoy, nos encontramos, por un lado, con unas pocas redes sociales y plataformas de servicios que concentran la mayoría de los usuarios de Internet como potencial audiencia para el marketing (es el modelo de negocio de Facebook, Google + o Twitter entre otros) y, por otro lado, una tendencia en la consolidación de “jardines porosos pero vallados” de servicios de valor añadido de pago, por ejemplo, la estrategia de Apple.

Este es el balance de la Web 2.0. Obviamente este es mi punto de vista, aunque hay algunos que ya se adelantaron hace tiempo en vaticinarlo: La Web 2.0 ha muerto, ¡Viva la Web 2.0!

Dennis Ritchie. Uno de los pioneros de la informática

Con una nula cobertura mediática, hoy no hemos enterado que el pasado 8 de octubre falleció Dennis Ritchie, cocreador del sistema operativo Unix, junto con Ken Thompson y Douglas McIlroy, y del lenguaje de programación C. Es el típico caso de esas personas que en la trastienda de la innovación, trabajando en equipo y sin dedicarle ni un minuto a promocionar su “marca personal” contribuyen de forma eficiente a transformar nuestro mundo en positivo. En efecto, gracias a su contribución, millones de aplicaciones y sistemas están gestionando la complejidad de nuestro mundo, desde los aeropuertos, ferrocarriles o semáforos, hasta los servidores de datos de tarjetas de créditos o las máquinas que monitorizan nuestra salud en las unidades de cuidados intensivos de los hospitales.

Del sistema operativo Unix surgió una gran variedad de implantaciones comerciales en los sistemas de IBM, SUN, HP o MAC. Pues sí, el MAC del idolatrado Steve Jobs funciona gracias al OS X un sistema operativo basado en los trabajos iniciales de Ritchie y sus colegas. Sin olvidar que fue el desencadenante de toda la corriente del software libre a través del proyecto GNU iniciado por Richard Stallman en 1983 o el proyecto Linux de Linus Torvalds en 1991.

No deja ser curioso que habiendo fallecido unos días después de Steve Jobs, la crónica, con retraso, quede resumida en: Dennis Ritchie de 70 años, jubilado desde 2007, su último puesto de trabajo fue el de ingeniero jefe del departamento de Investigación en software de sistemas de Alcatel-Lucent, falleció el pasado fin de semana, víctima de una larga enfermedad. Fue premio Turing en 1983 por la teoría de sistemas operativos genéricos y  recibió la Medalla Nacional de Tecnología de EEUU en 1998.

In memoriam de Dennis Ritchie.

Steve Jobs. Uno de los pioneros de la microinformática

Esta madrugada ha fallecido Steve Jobs, a la edad de los 56 años, uno de los fundadores de Apple considerado un genio visionario y creativo en el mundo de las TIC.  Como homenaje a su persona y para entender su trayectoria, vale la pena recordar el movimiento de jóvenes innovadores que, a partir de la segunda mitad de la década de los años setenta del siglo pasado, desde improvisados laboratorios ubicados en garajes, cuartos trasteros y residencias universitarias revolucionaron el sector del tratamiento y acceso a la información con el diseño y desarrollo de los primeros ordenadores personales.

El primer ordenador personal, el Kenbak-1, se remonta a 1971 desarrollado por John Blankenbaker para el mercado específico de la formación y la enseñanza electrónica, únicamente se vendieron 40 unidades. Sin embargo, cuatro años después, el Altair 8800  diseñado por Ed Roberts y Bill Yates, significó el arranque comercial de los ordenadores personales. En efecto,  la presentación del Altair 8800 en la revista Popular Electronics de enero de 1975, desencadenó un movimiento innovador nunca imaginado por sus creadores. Por primera vez, en la historia de la humanidad,  era posible que una persona tuviese su propio ordenador, y alrededor del Altair surgieron congregaciones y devotos, como el club del Ordenador Casero (Homebrew Computer Club), con sede en Stanford, conocidos como los nerds en una década efervescente.  Dos años después empezó el verdadero despegue de la informática personal la con la aparición en el mercado de varios modelos de ordenadores personales. Se empezaron a comercializar equipos tales como: el Commodore, los modelos TRS 80 o Z80 de Radio Shack , Atari y por supuesto el de mayor éxito, el Apple Computer.

El ordenador personal Apple fue creado por Steve Wozniak y Steve Jobs en un garaje, ambos  eran amigos en la escuela secundaria, les gustaba la electrónica y se los veía como jóvenes fuera de lo común. Se mantuvieron en contacto después de la graduación, luego abandonaron sus estudios universitarios y se emplearon en empresas situadas en el Silicon Valley (Wozniak en Hewlett-Packard, Jobs en Atari). Wozniak, que había estado trabajando en el diseño de un ordenador durante un tiempo, diseñó en 1976 lo que sería el Apple I. Jobs, con más visión de futuro, insistió en que él y Wozniak comercializaran la máquina, y el 1 de abril de 1976 nació Apple Computer. Los interesados en los ordenadores no tomaron muy en serio la primera versión de la máquina, sin embargo, un año después, con el Apple II que fue presentado en una exposición local de ordenadores, empezó el despegue de la compañía. El Apple II fue una máquina que llamó la atención, porque era el primer ordenador personal que venía en una carcasa de plástico e incluía gráficos en color, su diseño se ajustaba más a los conceptos de electrodomésticos del hogar de la época que al típico kit de montaje de los ordenadores de la competencia. Sin embargo, con la incorporación posterior de la disquetera Apple Disk II y la posibilidad de ejecutar VisicCalc, la primera aplicación de hoja de cálculo, el Apple pasó de ser un hobby para aficionados a la informática a una herramienta seria para los negocios.

La penetración de los ordenadores personales de Apple Computer  en los despachos de algunas empresas empezó a inquietar a IBM, líder indiscutible del sector de la informática en aquellos momentos. En 1980 el negocio de las ordenadores personales, producto de tecnófilos y personas próximas al mundo de la contracultura,  se estimaba en mil millones de dólares. A pesar de la posición conservadora de IBM,  la perspectiva de un importante crecimiento del segmento del mercado de los ordenadores personales fue un impulsó para desarrollar su  propia gama de ordenadores para dicho segmento, pero con la particularidad de que por primera vez en la historia de la compañía no se utilizaría tecnología propia. El proyecto contemplaba comprar los componentes electrónicos y los programas a terceros, ensamblarlo todo y añadir el logo de IBM.

En agosto de 1981, IBM, presentó el IBM Personal Computer (IBM PC). Este ordenador que costaba unos 3 mil dólares, se convirtió en el estándar de la industria. En los primeros 18 meses se vendieron 136 mil unidades y, a finales de 1983, IBM se posicionó como el líder del mercado de los PC. Buena parte del éxito se debió a la utilización de componentes de terceros y estándares en la industria, gracias a ello, docenas de fabricantes menores comenzaron a construir PCs basados en el modelo de IBM, lo que hoy llamamos clónicos, creándose  una industria con un gran crecimiento en el sector del hardware y el software, como el caso de Microsoft.

El gran salto cualitativo en la relación de las personas con los ordenadores se produjo en  enero de 1984 cuando Apple Computer presentó un nuevo modelo de ordenador personal, el Maccintosh (o Mac), que revolucionó el concepto de interacción persona-ordenador por su facilidad de uso. El usuario, en vez de tener que aprender complicados comandos (comandos en el sistema MS DOS del IBM PC) se comunicaba con el Mac por medio de un programa gráfico basado en íconos y ventanas controlado por un ratón. El Macintosh, incompatible con el IBM PC, dividió en dos reinos el mundo de los ordenadores personales. En enero de 1990 con el lanzamiento del sistema operativo Windows 3.0 de Microsoft, los ordenadores personales basados en el modelo del IBM PC acabaron teniendo similares prestaciones en la interacción persona-ordenador que las de los sistemas de Apple Computer.

El resto de la historia ya es conocida. In memoriam de Steve Jobs.