La Disrupción de los Disruptores

Tiempo de lectura: 10 minutos

Hace 12 años Marc Andreessen escribió [1] un famoso artículo donde explicaba por qué el software se estaba comiendo el mundo empresarial. Un contexto en el que los gigantes tecnológicos copaban los primeros puestos en capitalización de mercado, delante de bancos, operadoras y empresas energéticas. Tres años después, Salim Ismail explicaba en su libro “Exponential Organizations” que el ciclo de máxima competitividad de una empresa se había reducido a cinco años [2], y que el 89% de las empresas que salían en el Fortune 500 del año 1955 ya no estaban presentes en el del 2014.

Si no estás trabajando en la disrupción de tu negocio o mercado, lo está haciendo otro”, dice la web de Ismail.

CEO Nokia

Siempre hay alguien que quiere quedarse con tu negocio

Lo dice porque hemos visto cómo la tecnología digital, de la mano de grandes inversiones de fondos de Venture Capital han transformado la forma en que viajamos, comemos, nos informamos, nos entretenemos, ahorramos o invertimos, incluso la cómo consumimos a otras personas.

Cualquier sector, mires donde mires, se transforma gracias a la tecnología digital.

Esto es así al menos desde hace 12 años, y ahora, en 2023, va siendo hora de que nos hagamos las preguntas decisivas.

¿Quién va a transformar el mercado de la tecnología? ¿Y cuándo lo va a hacer?

Obviamente la tecnología.

Vale, pero ¿qué tecnología?

La Inteligencia Artificial. Y por cierto, ya ha empezado.

Todo va de reducir costes

En los años 80, en la Glorieta de Ruiz Jiménez de Madrid, había una sucursal del Banco Central. Recuerdo ir con mi padre a sacar dinero: rellenabas un papelito con la cantidad, y le dabas la libreta y el DNI a un señor al otro lado de un cristal. Se lo pasabas a través de un cajón con un mecanismo que impedía que dos personas metieran mano a la vez. Luego, el señor revisaba si tenías ese dinero, y metía billetes en el cajón para que los cogieras. Yo mientras me entretenía con uno de esos bolígrafos negros, sujetos con una cadenita (porque la gente roba).

Ese trabajo desapareció con la implantación de los cajeros automáticos, que eran mucho más rápidos, cómodos y seguros. Y sobre todo, que daban dinero a cualquier hora del día, sábados, domingos y festivos. En 2008 llegó a haber más de 60.000 cajeros automáticos en toda España, una maravilla. Y una faena para los cajeros-persona, que se quedaron sin trabajo, claro.

Luego pasaron a cerrarse oficinas bancarias. Hacer operaciones por internet o directamente por el móvil es mucho más cómodo, lo haces desde casa, sin esperar una cola. En 2008 llegó a haber más de 46.000 sucursales bancarias en España, hoy hay menos de 19.000 (como en 1976).

Pasa igual con los call centers. Ninguna empresa dice abiertamente que le dan igual sus clientes, y que hará lo posible para que desistan en la reclamación de sus derechos. Basta navegar un rato en LinkedIn para leer cómo cualquier empresa se declara “customer centric”, o sea, que ponen “al cliente en el centro”, pero ¿en el centro de qué? Cada vez un cliente con un problema usa la salida de “quiero hablar con un agente” porque se ha perdido el diálogo de un IVR [3] o de un chatbot, se demuestra que, como clientes, no estamos en el centro.

Un cliente pensaría que estar en el centro es llamar a un sitio, contarle tu problema a alguien y que lo resuelva. Escuchar que ante tu problema, ese alguien dice, “no se preocupe”.

Empty Call Center

¿Pero dónde está todo el mundo?

¿Quién pensaría que un cliente con un problema quiere escuchar una locución que le invita a volver a decir más claro el motivo de su consulta?

Alguien que prefiere ahorrar dinero.

A la hora de la verdad, cuando una empresa decide (como si las empresas pudieran tomar decisiones, eso no existe, son las personas que trabajan en las empresas las que las toman) que va a eliminar un proceso humano y sustituirlo por un robot o un agente virtual, está usando una ecuación en la que el coste (o sea, lo que se paga) importa más que el servicio (o sea, lo que se hace a cambio de lo que se paga).

Y eso es así porque la Primera Ley dice que con un coste lo suficientemente bajo, cualquier nivel servicio es rentable.

Recordemos que las empresas están para ser rentables.

Montar una empresa y pagar todos los meses religiosamente las nóminas es una complicación, pero se hace porque es la mejor forma de invertir un dinero.

¿Qué dinero?

El de los costes de operar.

La rentabilidad de una empresa tiene que ver con el resultado del dinero que ingresa menos el dinero que le cuesta conseguirlo.

El día que salga más rentable meterlo en la Cuenta Naranja, se acabó la empresa.

Creo que esto es sencillo de entender. Hay personas idealistas que consideran que la tecnología habilita nuevas formas de conseguir ingresos. Y es verdad.

La Segunda Ley dice que a igualdad de costes, si aumentan los ingresos, aumentan la rentabilidad.

Lo que pasa es que, bueno.

En un presupuesto hay una variable que es imaginaria, y otra que es real, como un puñetazo en la cara.

Puedes poner en tu hoja Excel los ingresos que te dé la gana. Te puedes inventar que vas a crecer un 19% mensual. Que los ingresos se van a concentrar antes del verano, y en el último trimestre. Que van a venir de determinadas líneas de negocio, en no sé qué países. Todo eso es un objetivo.

Algo que trabajarás para conseguir.

Algo que no tienes ni idea de si va a pasar o no, lo sabrás al acabar el mes/trimestre/semestre/año.

Pero la parte de los costes. ¡Ay!

Esa parte es real.

Esa parte te dice cada mes lo que te cuesta que tu empresa funcione sin importar lo que ingrese. Es más, lo sabes el 1 de enero de cada año.

El Director Financiero sabe el día 1 de enero toda la pasta que va a necesitar mover para que la empresa opere.

¿Por qué las empresas siempre quieren reducir sus costes? Porque la Tercera Ley dice que a igualdad de ingresos, si bajan los costes, aumenta la rentabilidad.

Ocurre lo mismo desde el punto de vista de las Operaciones. La idea de la eficiencia obtenida con la reducción de costes es la base del modelo Plan-Check-Do-Act [7] y los principios de la Mejora Continua y Calidad Total de Deming [8], que se propusieron en los años 50 y que se siguen estudiando en las Escuelas de Negocio.

Reducir costes es una decisión que actúa sobre un dato real, conocido de antemano, cuyo impacto se puede medir mes a mes y que redunda en la eficiencia. Es una decisión racional.

Bien. La primera reflexión que quería compartir es que los gestores de una empresa, siempre que puedan, tomarán la decisión racional de intentar reducir sus costes.

Programadores en la niebla

Lo que nos lleva a la segunda reflexión. ¿Qué ha pasado en el mercado de la tecnología?

Han pasado cosas maravillosas. Los que empezamos a trabajar a finales de los 90 hemos visto unas cuantas.

Los informáticos de mi quinta leíamos a Douglas Coupland cuando escribió Generación X y Microserfs a principios de los 90 (el artículo original sigue publicado en Wired [4]), también hemos visto “Trabajo basura” [5] que es del año 99, y “The IT Crowd” [6] que es del 2006.

Contextos donde los profesionales de la tecnología digital son personas alienadas en trabajos que no les satisfacen, en organizaciones que no les consideran personas sino “recursos” (como una impresora o un ordenador portátil), mal pagados y sin reconocimiento social, estigmatizados como “freakies”.

Entre medias hemos visto la “Burbuja de las Puntocom” [9]. El contexto opuesto. Caracterizado por una demanda de profesionales que supera la oferta, que hace que se disparen los sueldos y los paquetes retributivos, mejoren las condiciones de trabajo, y el prestigio social.

Sabemos que la Burbuja de las Puntocom terminó con la Crisis de las Puntocom, y eso trajo un ciclo de destrucción de empleo, bajada de condiciones, ajustes y demás en el mundo de la tecnología, que trae de vuelta empleos alienantes con los que hacer una comedia como “The IT Crowd”.

Developers in the Mist

Nunca olvides a esos programadores en la niebla

Llevamos más de 12 años en la bonanza de la Transformación Digital: la tecnología como motor del cambio en todos los sectores.

Eso ha dado lugar de nuevo a un exceso de demanda: todas las empresas necesitan desarrolladores. Hasta el punto en que la relación entre empleador y empleado se desequilibra hacia el lado del empleado.

No hace falta estar en el mundo de la tecnología para ver que lo que ocurre hoy en día no es normal.

¿Comparado con qué?

Comparado con lo que ocurre en el resto de la sociedad.

Haz unas cuentas rápidas con la Guía Salarial de Hays 2023 [10], el Informe de Tendencias Salariales de Randstad Research [11], el Estudio de Remuneración 2023 de Michael Page [12] y el informe de Salarios en tecnología de Manfred [13]. Verás que un desarrollador que programe en JAVA y tenga de 5 a 10 años de experiencia, cobra de media 52.000€.

Con este dato, podemos hacer dos cosas. La primera, saber cuánto le cuesta a la empresa, es decir, obtener la certeza de lo que se va a pagar por tener a esa persona en plantilla: 68.718€ con la calculadora de coste empresa de Factorial [14]

La segunda es saber cómo se compara ese salario con la realidad económica de España. El comparador de ElDiario.es [15] con datos de la Agencia Tributaria de 2021 dice que una persona con entre 5 y 10 años de experiencia (si empezó a trabajar con 24 años tiene entre 29 y 34) y que cobra de media 52.000€ está en el percentil 93.

Es decir, el 93% de los españoles ganan menos. Por edad, se sitúa en el 5% de los españoles que más ganan.

Estar en el percentil 93% o en el 95% no es lo normal.

La Inteligencia Artificial nivela asimetrías

Porque tampoco es normal es un contexto donde el que el ofrece el empleo está en desventaja sobre la persona que lo acepta. Al fin y al cabo, el que ofrece el empleo es el que asume el riesgo.

El riesgo de saber que tiene que pagar a la persona (parte real de la cuenta de resultados) con la esperanza de que ese dinero invertido en la persona le genere beneficio (parte imaginaria de la cuenta de resultados).

Lo veo indeseable para el que asume el riesgo.

En un ciclo como el que vivimos, los empleados tienen más opciones que los empleadores. Pueden elegir. En el mundo de la tecnología están los salarios en los percentiles más altos de las tablas. También todo tipo de beneficios, desde teletrabajo, ayudas para idiomas, formación certificada, más días de vacaciones, medidas para fomentar el bienestar personal y mental. Hay empresas como Good Rebels que han implantado la jornada laboral de 4 días [16]

¿Para qué?

Para aumentar las opciones del empleador. O sea, para conseguir atraer personas.

No sólo atraerlas, también a ser posible para que se queden.

A cambio, las personas que trabajan en áreas de Personas, Talento y Cultura manifiestan lo difícil que es contratar. En general, transmiten la asimetría externa del empleado con más opciones que el empleador, y la asimetría interna que se crea en una organización donde unas personas tienen unas condiciones, y otras personas, el resto, tienen otras.

Orgchart

La asimetría en una empresa cae desde arriba

La asimetría es lo peor que hay en una empresa, es uno de los principales factores para hundir su cultura. Significa que las personas no son iguales ni tienen los mismos derechos y obligaciones. Hay un pequeño grupo con un privilegio por ser “más necesarias” para el negocio, y eso transmite al resto el mensaje inequívoco de ser “menos necesarios”.

A nadie le gusta que le recuerden que es menos necesario.

Sabéis que yo no soy especialmente fan de Elon Musk pero lo expresó en junio de 2022 [17] cuando dijo que los empleados de Tesla debían pasar al menos 40 horas de trabajo a la semana en la oficina, que es “menos de lo que se pide a los empleados de las fábricas”.

Por una parte tenemos empresas, que aplican de manera racional y sistemática la reducción de costes; y por otra, una asimetría entre oferta y demanda, que hace que los empleadores tengan menos opciones y que los empleados estén en los percentiles más altos de los salarios, con mejores condiciones que el resto de sus compañeros.

Me pregunto si habrá alguna tecnología que amplifique y mejore las capacidades y la productividad de las personas.

Una tecnología que pueda equilibrar la balanza del lado de la empresa.

¿Por qué del lado de la empresa?

Porque el empresario es el asume el riesgo. Es el que paga.

Y el que paga elige.

Si tiene opciones.

Mi pronóstico es que va a llegar un día, además va a ser pronto, lo mido en meses por no decir semanas, en el que la Inteligencia Artificial, que diseña, programa, compila y depura, y tiene un fee mensual en torno a los 10$ va a hacer que un programador con menos de 2 años de experiencia pueda tener un rendimiento equivalente a la de otro con entre 5 y 10.

Se que habrá mucha gente que pensará “¡Claro! Y uno de entre 5 y 10 la capacidad de otro de entre 10 y 15”.

Es que esa no es la cuestión.

Lo cierto es que un día, un empresario podrá elegir entre una persona que según los informes de antes tiene un sueldo medio de 30.600€ y le cuesta 40.537€, y un fee mensual de 10$; y otra que le cuesta un 70% más.

Decisiones equivalentes a las de instalar cajeros automáticos, cerrar oficinas o poner robots en call centers.

¿A quién va a elegir de forma racional, pensando en la eficiencia y la rentabilidad?

Temo que esta vez, la tecnología se va a volver en contra de los técnicos.

Redux

Una versión más ligera de este artículo se publicó en Ethic el 19 de octubre de 2023.

Referencias

[1] https://www.wsj.com/articles/SB10001424053111903480904576512250915629460

[2] https://www.goodreads.com/book/show/22616127-exponential-organizations

[3] https://en.wikipedia.org/wiki/Interactive_voice_response

[4] https://www.wired.com/1994/01/microserfs/

[5] https://www.imdb.com/title/tt0151804/

[6] https://www.imdb.com/title/tt0487831/

[7] https://deming.org/explore/pdsa/

[8] https://deming.org/explore/fourteen-points/

[9] https://www.investopedia.com/terms/d/dotcom-bubble.asp

[10] https://guiasalarial.hays.es/

[11] https://www.randstadresearch.es/tendencias-salariales-2023/

[12] https://www.michaelpage.es/prensa-estudios/estudios/estudios-de-remuneracion

[13] https://www.getmanfred.com/blog/salarios-en-tecnologia-2023-espana

[14] https://factorialhr.es/calculadora-coste-trabajador

[15] https://www.eldiario.es/economia/comparador-salarios-espana_1_10548632.html

[16] https://www.goodrebels.com/es/rebelthinking/un-ano-trabajando-4-dias-a-la-semana-que-dicen-los-datos/

[17] https://www.theverge.com/2022/6/1/23149784/elon-musk-tesla-remote-work-leaked-email-40-hours

De la Voluntad y la Intencionalidad en Ciencia y Tecnología

Tiempo de lectura: 29 minutos 😅

«La tecnología no es buena ni mala, depende»

Estoy seguro de que habrás notado cómo, cada vez que un nuevo informe o paper explica el impacto que tiene en la capacidad cerebral de los menores la adicción al TikTok, o cuando se informa de los trastornos en la alimentación o la personalidad que crea en las adolescentes la cultura de like de Instagram, alguien dice esa idea naïf de que “la tecnología no es buena ni mala, depende del uso que se hace de ella”.

Quizá tú lo pienses.

He usado a propósito la palabra «naïf» precisamente por su sentido de ingenuidad intencionada. Ingenuidad, porque es un pensamiento simplista, tal vez fruto de haber hecho poca reflexión. Intencionada, porque uno siempre se queda con la sensación de que este tipo de mensajes suelen ser auto-exculpatorios.

El 15 de septiembre de 2023, la Irish Data Protection Comission impuso una sanción [0] de 345 millones de euros a TikTok porque su gestión de la privacidad de los menores incumple el GDPR. En particular: la verificación de edad durante el proceso de alta; las cuentas de menores estaban abiertas al público por defecto; no se informaba de esto de manera transparente a los menores; y no implementaba la seguridad adecuada para los riesgos que corre un menor de 13 años con su cuenta abierta al público en TikTok

Y, sobre todo:

“TikTok implementeddark patterns’ by nudging users towards more privacy-intrusive options during the registration process, and when posting videos.” [0]

Implementar Dark Patterns. Por si no lo sabes, se refiere a un patrón en la experiencia de interacción diseñado intencionalmente para que los usuarios tomen decisiones que pueden ser perjudiciales para sus intereses.

Pero no para los de los creadores del sistema.

Lo primero que tienes que saber sobre este ensayo es que tratará sobre la Intencionalidad, y cómo la Intencionalidad responde a una Voluntad. A la de alguien, nunca a la de algo, porque un algo no tienen Intencionalidad.

Empecemos por el principio. ¿Menores en Tiktok? En España, no está permitido que un menor de 14 años se dé de alta en una red social. La UE establece el límite en los 16, pero permite a cada país que fije sus propias normas. Show Chew, CEO de TikTok, afirma [1 ] que la plataforma por defecto fija en 60 minutos al día el límite de uso para los menores, pero admite que ese límite se puede desactivar por configuración; o que no tienen mecanismos para impedir que menores se den de alta; o que construir una plataforma segura [2] para menores no es sólo un reto de TikTok, también le pasa al resto de la industria…

Mensajes auto-exculpatorios.

¿La responsabilidad de lo que pasa en TikTok no es de lo que permite hacer la plataforma, sino de las personas a las que le das la plataforma?

Pues nos parece normal decir eso cuando hablamos de TikTok, de Facebook, o de Twitter, del Zuckerberg o el Musk de turno. Empresas y personajes que hemos convertido en aspiracionalmente relevantes, y que se siguen poniendo de ejemplo en Escuelas de Negocio. Como ejemplo de innovación, de atrevimiento, de crecimiento de usuarios, de acceso a capital, de beneficios… cuando en realidad deberíamos tenerlos como ejemplos de Voluntad e Intencionalidad, y sacar conclusiones sobre ello.

¿De quién es la responsabilidad de la destrucción de Hiroshima? ¿Será de los científicos que investigaron con éxito la bomba? ¿O de quiénes las ensamblaron bien y entonces “funcionaron bien”? ¿O del piloto que en lugar de perderse, guió el avión a su destino? ¿O del Mayor Ferebee, que apretó el botón sobre el objetivo?

No, en este caso lo tenemos claro.

Dos personas asumieron esa responsabilidad. Oppenheimer, de investigarla, diseñarla y hacerla posible. El presidente Truman, de lanzarla sobre Japón. Ya lo dijo el propio Oppenheimer. Se había convertido en el Destructor de Mundos.

En toda transferencia tecnológica hay un proceso de diseño, que responde a un objetivo, y durante el que se toman decisiones. En ese punto surge la responsabilidad.

¿Desde dónde surge?

Desde la Voluntad.

En este ensayo voy a utilizar Intencional como antónimo de Neutral. Se que el antónimo de “neutral” es “parcial”, pero me gusta “Intencional”. Podríamos decir que la tecnología es “parcial” porque alguien toma partido, elige una opción transformadora de la realidad. Aun así, me parece más apropiada la palabra “Intencional” porque creo que pone de manifiesto que esa parcialidad de la tecnología responde a un motivo, a una Intención que ha sido creada por una Voluntad. Esos términos, Intencionalidad y Voluntad, los escribo con mayúsculas porque en torno a ellos debemos desarrollar una Ética tecnológica.

Así, podemos usar la palabra Intencional para referir el hecho objetivo de implementar dark patterns para que los menores no tengan sus cuentas de TikTok abiertas como hemos visto antes. O para referir que Elon Musk despida a la mayor parte del equipo que se encarga de cortar la publicación de contenidos relacionados con el abuso sexual a menores [3] y lo reemplace por un algoritmo; porque esa decisión tiene una intención y unas consecuencias.

Consecuencia: reducción de costes.

Consecuencia: material de abuso sexual a menores disponible durante meses en la plataforma [4].

Y eso que hay herramientas que identifican los patrones en estas imágenes, y los difunden hacia las redes para que éstas automáticamente los moderen. Pues nada oyes, con tanto despido, no funcionaban.

No me digas que usar  “intencionalidad” no eleva la descripción del fenómeno.

Personalmente, no creo que Elon Musk quiera que se distribuya pornografía infantil por twitter, lo que sí creo es que entre reducir costes para mejorar el EBIDTA, o seguir invirtiendo en vetar la pornografía infantil, lo tiene claro.

Ese es el ejemplo que tendríamos que dar en las Escuelas de Negocio.

Sé Truman. Sé Oppenheimer. Asume la decisión de priorizar costes sobre pornografía infantil.

Espera. O mejor aún.

Asume la decisión contraria, que igual es la correcta.

Oppenheimer desnudo en una silla

Es hora de desnudar a la Tecnología

Es curioso que haya personas que sigan defendiendo como paradigma del éxito al magnate sudafricano (hecho a sí mismo en la ciudad Esmeralda [5]) cuando se auto-exculpa de las consecuencias de sus decisiones intencionales; y en cambio como europeos, nos produzca indignación casi unánime que cada vez que hay un ataque con armas de fuego en un colegio de USA, salga un miembro del GOP, de la NRA o del propio Trump, diciendo que “no es necesario mayor control de las armas, sino volver la mirada a Dios” [6] o que “un profesor armado podría poner fin a un ataque muy rápido” [7], o nos llevamos las manos a la cabeza cuando hay empresas que crean un modelo de negocio de bunkers portátiles para escuelas [8].

Efectivamente, dirás, es que no es la misma relación causal entre Intencionalidad tecnológica y consecuencias. Que no es lo mismo la Bómba Atómica que las redes sociales.

Que todo es relativo.

El relativismo no es algo que exista únicamente en la filosofía, ni aplica sólo a nuestra visión de la ética tecnológica, es uno de los conceptos esenciales y más transformadores de la historia de la ciencia, y clave en la mecánica cuántica.

Y de ciencia, tecnología, mecánica cuántica y relativismo (moral y científico) va «Oppenheimer». Es una película que además de interesante, y candidata a llevarse una buena pila de premios y reconocimiento, es un contexto ideal para hablar de Filosofía de la Ciencia, y de la Neutralidad de Ciencia y Tecnología.

Ciencia es Conocimiento

No se tú, pero yo a veces tengo la sensación de que hay personas que usan la palabra “ciencia” y la palabra “tecnología” como si fueran intercambiables, y no.

Hay muchas definiciones de Ciencia, prácticamente cada diccionario, cada universidad y cada agencia científica tiene la suya. Algunas hacen más énfasis en el objeto de estudio (el mundo físico, el mundo conocido, el mundo real..), el objetivo (encontrar conocimiento, definir leyes…), otras en la utilidad de ese conocimiento (explicar, predecir…), otras en cómo se obtienen las evidencias (por la observación de fenómenos, por la experimentación…), etc.

En general, sacando factor común, podemos decir que “ciencia es la disciplina que busca el conocimiento fiable del mundo, a partir de la experimentación y los hechos objetivos”; y esa definición nos deja a todos más o menos tranquilos, podemos aceptarla, y además reconocer que la ciencia, en principio, tiene que ver con el conocimiento y, por tanto, no con la intervención. Intervención en el mundo que estudia, me refiero.

Como tiene que ver con el conocimiento, con “lo que es”, debe ser objetiva. Por eso se defiende la neutralidad de la ciencia. Es epistemológica, busca el conocimiento como fin en sí mismo, y a partir de él, explicar el mundo, predecir lo que ocurrirá, o descubrir lo que ha ocurrido.

Obviamente, no todas las ciencias tienen ni la misma facilidad objetiva, ni la misma capacidad predictiva, sobre todo las ciencias sociales (y si no, que se lo digan a Feijóo [9]). En las “ciencias duras”, hay unas leyes, expresadas a través de fórmulas que nos permiten saber con exactitud qué pasa si le pego una patada a una pelota, según como se la pegue, según cómo sea la pelota, según el viento que haya, etc. Eso es objetivo y por tanto neutral. Otras ciencias, como las sociales, pueden estar sujetas a subjetividad, ahí están las visiones enfrentadas del positivismo contra la hermenéutica. Cuando se hace una explicación de fenómenos como la especulación masiva en criptodivisas o la ablación femenina, es complicado que el observador se desligue subjetivamente de lo observado. Sin embargo, la idea de que hay corrientes positivistas que intentan explicar los fenómenos sociales desde la objetividad, nos hace pensar que esa sea, efectivamente, una de las características esenciales de la ciencia para serlo.

De hecho, todo el concepto del racionalismo gira en torno a la idea de que debe existir algo, la razón, que nos permita encontrar la verdad de algo, con independencia de quién lo valore.

“Verdad” y “razón” son conceptos complicados desde que Platón empezase a hablar sobre ellos hace dos mil quinientos años. Tradicionalmente, se espera de un científico que sea neutral, porque su misión es describir cómo es el mundo, no cómo le gustaría que fuese. Y debe ser objetivo, porque la filosofía europea, desde la Grecia de Epicuro, nos dice que las emociones se oponen a la razón porque la ofuscan. Por tanto, para hacer ciencia hay que dejar de lado las emociones. Las observaciones, los experimentos, las fórmulas…, todo debe ser comprobable con independencia de quién lo formule o quién lo valide para poder establecer una Ley, a ser posible universal. O sea, que se cumpla siempre y en todos los casos.

Para hacerlo, se sigue el Método Científico, que busca la objetividad por diseño. Es decir, que se ha diseñado para ser objetivo. Por eso hablamos de observaciones, de experimentos pensados para que se puedan repetir, de hipótesis que se quieren validar, de formulaciones matemáticas de leyes para que no se puedan malinterpretar ni se pierda su significado en traducciones, de revisión por pares, de publicaciones donde se han validado, de refutaciones, etc., y ese es el modelo tradicional de hacer la ciencia.

Retrato de Francis Bacon

Todos los científicos están a un grado de separación de Francis Bacon

Durante muchos años, sólo Hume y los empiristas pusieron en duda el modelo de la ciencia, cuando expusieron el llamado “problema de la inducción”. Tiene que ver con la forma en que establecemos conclusiones que decimos verídicas en el futuro, a partir de observaciones que hemos visto en el pasado. Para Hume:

no existen argumentos demostrativos para probar que los casos de los que no tenemos experiencia se asemejen a aquellos de los que tenemos experiencia” (Hume) [10]

Lo que le lleva a concluir que

cuando la mente pasa de una idea o impresión de un objeto, a la idea o creencia de otro, no está determinado por la razón, sino por ciertos principios que asocian entre sí las ideas de estos objetos, y las unen en nuestra imaginación” (Hume) [10]

Durante un par de siglos el único problema de la ciencia era si podíamos ser racionalistas o empiristas, si nuestras leyes eran suficientes o no para declarar la superioridad epistémica de la ciencia como disciplina para adquirir conocimiento, sobre la fe o la metafísica. La neutralidad del científico no era un problema en sí misma, hasta que llegó lo que se conoce como “Big Science” y entonces todo empieza a cambiar un poco.

En «Oppenheimer» se explicita claramente este cambio, porque vemos a los científicos salir de las Universidades y entrar en las bases militares.

A partir de aquí, sabemos que al problema de la inducción le unimos el problema de la neutralidad. Porque esto de la neutralidad tal vez tampoco sea del todo cierto.

En los años 60 Kuhn desarrolla el concepto de Paradigma [11] para explicar que los científicos, como personas, asumen cierta forma de pensar, ciertas ideas, ciertos supuestos previos, ciertos ámbitos de interés hacia los que dirigir su mirada… A ese contexto en el que se juntan valores, conceptos, métodos, supuestos y demás, es a lo que Kuhn llama Paradigma. Los científicos que trabajan dentro de un mismo Paradigma comparten este contexto.

Concluimos esta parte dejando claro que la ciencia busca el conocimiento objetivo del mundo, y que en ese punto hay un riesgo de la subjetividad del científico como humano. La superioridad epistémica de la ciencia frente a otras formas del saber se sustenta tradicionalmente en torno al método científico, su objetividad, y su capacidad enunciativa de leyes que permiten la explicación y la predicción.

Pero hay un doble riesgo de subjetividad en la ciencia: el de los científicos-personas que imaginan leyes en su cabeza como diría Hume, y el de los científicos-miembros activos que investigan condicionados por lo que se acepta en un Paradigma.

Tecnología es Intervención

Por otro lado, tenemos a la tecnología. Tradicionalmente se traduce el griego technê como producción, arte o artesanía; en el periodo clásico, se asimila al concepto de la práctica por la cual el artesano, con su conocimiento, transforma la physis. Parece que es a partir de Aristóteles cuando se establece esa diferenciación entre la episteme como conocimiento, y la technê como intervención a partir del conocimiento verdadero [12]

La intervención en el mundo desde el conocimiento no viene del lado de la ciencia, la ciencia aporta la explicación o la predicción. La intervención viene más del lado de la tecnología, pues está relacionada con la acción. Tecnología combina la technê y el logos [13], lo que nos hace pensar en el arte de producir cosas con instrumentos a partir del conocimiento; y por otra parte en la palabra o la razón, y de ahí tenemos la tecnología como se define en varios diccionarios:

  • “teorías y técnicas que permiten el aprovechamiento práctico del conocimiento científico” para la RAE.
  • “the practical application of knowledge” para el Merriam-Webster, o
  • “the practical, especially industrial, use of scientific discoveries” para el Cambridge Dictionary o
  • Wissenschaft von der Umwandlung von Roh- und Werkstoffen in fertige Produkte und Gebrauchsartikel, indem naturwissenschaftliche und technische Erkenntnisse angewendet werden“ [13] para el Duden.

Y la verdad es que me vienen muy bien estas definiciones, porque son las que habitualmente tenemos a mano, y porque se quedan muy cortas, no van demasiado lejos que digamos. Son definiciones que evitan el concepto de la intervención (que es Intencional y responde a una Voluntad como hemos dicho) y eso para mí es fundamental: precisamente por lo que dejan fuera (la tríada Intervención-Intención-Voluntad si la vemos desde lo creado, o Voluntad-Intención-Intervención si lo vemos desde el creador) es por lo que alguien puede caer en la trampa de declarar la neutralidad de la tecnología.

Me gusta la “escalera” que hace Miguel Ángel Quintanilla, Catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Salamanca, en el que en cada peldaño explicita el paso de “técnica” a “tecnología”. Quintanilla habla [15] de:

  • la técnica, como una realización cultural de carácter abstracto, que tiene diversas realizaciones o aplicaciones.
  • la realización técnica, como un sistema de acciones humanas intencionalmente orientado a la transformación de objetos concretos para conseguir resultados valiosos
  • y la realización tecnológica como una realización técnica industrializada, vinculada a la ciencia, que persigue conseguir resultados valiosos de manera eficiente.

No existe la neutralidad de la tecnología, por definición de tecnología.

Pero no por la definición de los diccionarios, sino por la definición filosófica del término. Obsérvese cómo la palabra Intencionalidad aparece antes que la palabra “valor”, “industria”, “ciencia” o “eficiencia”. Claro, es que la Intencionalidad, es previa. La Intencionalidad responde a la Voluntad: primero existe la voluntad de un ser humano de transformar, de intervenir, y esa voluntad se transmite hacia aquello fabricado o intervenido a través de la tecnología. Decía Schopenhauer que:

«El mundo es mi representación (…) pues por muy inmenso y sólido que pueda ser, su existencia pende de un único hilo: la conciencia de cada uno, en la que se asienta» Y añade  “los objetos son la voluntad hecha representación” (Schopenhauer) [15]

O sea que el mundo es lo que yo percibo del mundo y lo que quiera hacer de él. ¿Cambia esta idea tu visión de Elon Musk, de Zuckerberg, de…?

Retrato de Arthur Schopenhauer

Schopenhauer era un pesimista con Voluntad

La tecnología tiene como misión en sí misma la Intervención, y por tanto, tiene Intencionalidad. Se utiliza el conocimiento científico con Voluntad para producir una transformación, y eso responde a un propósito que no es epistémico, es… otra cosa.

Esta idea idea de la escalera de la técnica nos puede servir también para ilustrar un ejemplo de la Intencionalidad de la tecnología.

  • Puedes hacer una tecnología que permita hacer el encoding y comprensión de un vídeo.
  • Puedes hacer una tecnología que permita la difusión de ese vídeo a otras personas.
  • Puedes hacer una tecnología que permita a las personas registrar su reacción a un vídeo que se les ha compartido.
  • Puedes hacer una tecnología que registre esas reacciones, analice los vídeos a los que corresponden, y busque patrones en vídeos similares.
  • Puedes hacer una tecnología que permita ver qué tienen en común las personas que responden a determinados vídeos…

Y en cualquiera de esos pasos puedes inventarte un modelo de negocio, hacer estimaciones de ingresos, y por tanto, plantear cómo alguien se va forrar. Es decir, que en cada caso, se puede diseñar la tecnología con una intencionalidad.

Es cierto, también se puede usar tecnología con otra intencionalidad, que puede no ser coincidente con la de su creador, así que habrá que pensar en qué se ha tenido en cuenta durante el proceso de diseño.

Supongo que en esta frase empiezan las incongruencias; se cuela el lenguaje para contaminar la realidad.

«Los límites de nuestro lenguaje limitan nuestra concepción del mundo», dijo Wittgenstein. Hay que tener mucho cuidado con el lenguaje, hay que ser muy responsables en el uso del lenguaje.

¿Cómo que la tecnología “se hace”?

¿Cómo que algo “se ha tenido en cuenta”?

Creo que es importante en este tipo de debates no decir que la tecnología “se hace”.

La tecnología no es reflexiva, no se hace a sí misma [17]

La tecnología la hacen las personas, la diseñan las personas, a partir de su Voluntad, con un propósito Intencional. Es un tema serio, y por eso hay que ser serios con el lenguaje.

Una de las líneas de reflexión que me apunto es escribir sobre la Intencionalidad de las personas que piensan la tecnología, y la de las personas que la construyen para los anteriores. Obviamente, también de quiénes la usan. Me parece interesante que una persona pueda trasladar la Voluntad de su visión, su Intencionalidad, a otros, que sin necesariamente tenerla, aceptan llevarla a cabo. Prestan su conocimiento y su trabajo a construir la Voluntad de otro. No digo que sea algo exclusivo de nuestros días, me parece algo interesante sobre lo que pensar, sobre todo en el caso de personas que tienen opciones. Esto también se recoge en Oppenheimer, cuando vemos cómo algunos científicos dudan, se debaten, sobre si participar o no en el proyecto Manhattan, porque no están seguros de querer sumarse a esa Voluntad.

¿Hay Neutralidad en la Big Science?

«Oppenheimer» gira en torno a varios fenómenos históricos, todos ellos muy relevantes, y al hacerlo, nos deja entrever otro que subyace a toda la película, y es el salto de la “ciencia” a la Big Science que hemos comentado.,

El proyecto Manhattan se suele usar como ejemplo para ilustrar la idea de la Big Science; una ciencia que sale de las Universidades y Centros de Investigación a grandes complejos o laboratorios, de la mano de los Estados y el Ejército. No solo de la mano, también del bolsillo. Grandes presupuestos permiten grandes proyectos de investigación, grandes montajes experimentales, grandes equipos de trabajo.

En este punto es cuando empieza a ser más patente que existe una Intencionalidad investigadora, puesto que hay una inversión sin precedentes que hacen los Estados y/o los Ejércitos (como si fuesen algo distinto), y se hace con un objetivo que no es necesariamente epistémico, sino que ahora tiene que ver con la ventaja competitiva de las naciones, se mida eso como se mida.

El conocimiento ya no es el fin, es el medio para conseguir el fin. Pero aparece antes el fin que el medio. Obsérvese que no es lo mismo investigar la fisión nuclear, descubrir la reacción en cadena, y deducir que se puede hacer una bomba; que decidir que se quiere hacer una bomba, y poner a gente a investigar cómo. Pero bueno, nunca sabremos si el estribo se inventó porque alguien quería una forma de que los jinetes pudieran tener mejor apoyo para golpear al enemigo, porque equilibrarse para disparar una flecha, o porque quería controlar mejor a su caballo [18]

En el caso del Proyecto Manhattan, sigue habiendo un objetivo epistémico: el conocimiento, eso está claro; sin embargo, el diálogo a partir de la publicación del paper de Otto Hahn y Fritz Strassmann [19] es revelador: los alemanes han demostrado que es posible la Fisión Nuclear. Joliot-Curie y Fermi-Slizard habían establecido la hipótesis de la reacción en cadena por diferentes caminos. A partir de ahí, Einstein y Slizard escriben [20] al presidente Roosevelt para comunicarle que objetivamente se ha verificado que el uranio enriquecido puede ser usado como fuente de energía; que objetivamente se está trabajando con la hipótesis de iniciar reacciones en cadena; y que probablemente, esas reacciones en cadena podrán generar un nuevo tipo de bomba, de capacidad destructiva sin precedentes.

La carta de Einstein a Roosevelt

La carta de Einstein a Roosevelt está en la Wikipedia

La carta Einstein-Slizard está fechada el 2 de agosto de 1939, Hitler invadió Polonia el 1 de septiembre, y termina especulando lo que se conocería como Uranverein, el proyecto nazi de enriquecimiento de Uranio. Los científicos invitan al presidente a dotar de fondos a los equipos de las Universidades, incluso a buscar financiación a través de contribuyentes privados y laboratorios.

Así que no sólo está la hipótesis de que es conceptual y científicamente posible fabricar una bomba atómica, sino que hay un indicio de que el enemigo está trabajando activamente en ello. La conclusión evidente es que la tienen que construir ellos antes. Hay un objetivo epistémico, “¿se puede liberar la energía atómica con una explosión que active una reacción en cadena?”

A ser posible, sin destruir el mundo.

Y ese objetivo epistémico queda eclipsado, en este caso, por el objetivo militar. No basta con validar una hipótesis, hay que hacerlo antes de que lo hagan otros. El Proyecto Manhattan es un proyecto militar llevado a cabo por científicos.

«Oppenheimer» nos muestra cómo el objetivo militar evoluciona durante el proyecto Manhattan, no así el objetivo epistémico. Cuando es derrotada la Alemania Nazi, termina la carrera por ver quién hace primero la Bomba Atómica: estaba claro que Japón y Rusia no tenían capacidad. El objetivo científico de validar la hipótesis se mantiene, pero cambia el objetivo político: no basta fabricar la Bomba, hay que “enseñarla al Mundo”, evidenciar la transferencia ciencia-tecnología (la capacidad científica y la capacidad de industrialización). “Enseñarla” significa lanzarla, sobre un objetivo que difícilmente será sólo militar, estadísticamente impactará (nunca mejor dicho) en población civil. Algo con lo que tal vez no todos los científicos estén de acuerdo, pero que da igual, pues no son los dueños del proyecto.

Una de las escenas de «Oppenheimer» que más impactante me resulta es cuando se celebra el éxito de la prueba Trinity [21]

¿Qué es lo que se celebra? Obviamente un logro epistémico, una hipótesis que se ha demostrado empíricamente. Pero no se puede desligar la celebración del éxito investigador, de las entre 150.000 y 240.000 personas que murieron [22] por los efectos directos de las detonaciones. A partir de ese experimento exitoso, se ensamblan “Fat Man” y “Little Boy”, la materialización de una aplicación tecnológica que responde a la Voluntad militar. Y luego se lanzan sobre dos ciudades, Hiroshima y Nagasaki, que responden a una Voluntad política.

La otra escena impactante es que, una vez que se han ensamblado los dispositivos, los científicos dejan de ser relevantes. Nadie les informa de cuándo se toma la decisión, se enteran por la radio. Dejan de ser útiles. De hecho, aquellos a los que se ha pasado por alto su filiación izquierdista, vuelven a ser puestos en entredicho. La película muestra la persecución a Oppenheimer, defensor de la Teoría de No Proliferación, contraria a las posturas de “los halcones”.

La Intencionalidad del científico

Si la ciencia y el Método Científico son neutrales, lo que tenemos claro es que las personas no lo son. Tenemos nuestras inquietudes, nuestros sesgos, nuestras simpatías, nuestras visiones del mundo, y de lo que está bien o mal. Tenemos una ética. O no. ¿Tiene algo que ver la subjetividad del científico con la ciencia?

Ya hemos visto que Hume afirma que la inducción ocurre en la imaginación del científico, y eso no puede ser más subjetivo. Y Kuhn dijo que los científicos forman parte de una sociedad, y esa sociedad tiene sus propios sesgos.

Los neopositivistas querían superar la inducción creando modelos universales de explicación científica [23], en los que un término observacional tiene un significado en sí mismo, y puede ser formulado independientemente de las teorías que sobre él se establezcan y lo expliquen. Este principio de estabilidad del significado es una de las bases de la objetividad de la ciencia.

Por eso me resulta interesante la tesis de Feyerabend cuando pone en duda la neutralidad del científico, al decir que su subjetividad es clave para el progreso de la ciencia. Para Feyerabend, los hechos no tienen una explicación en sí mismos, sino a través de una teoría que es la que les da sentido. Así, un mismo hecho, como la observación de la salida y la puesta del Sol, puede explicarse desde el geocentrismo durante miles de años, o desde el heliocentrismo. Esta tesis cambia el orden tradicional: no es el hecho observado el que llama la atención del científico, que establece una teoría para explicarlo (el hecho antecede a la teoría que lo explica); es la teoría la que explica el hecho, la que lo convierte en una observación relevante. Su Thesis I dice:

la interpretación de un lenguaje observacional está determinada por las teorías que usamos para explicar lo que observamos, y esta cambia tan pronto como aquellas teorías cambian” (Feyerabend) [24]

El hecho es el mismo, la observación es la misma, sin embargo, hoy sabemos que es la Tierra la que orbita alrededor del Sol. Esta nueva verdad objetiva, esta realidad, se debe a la Voluntad de Galileo, su interpretación que cuestiona el orden Ptolemaico, lo que hace que hoy tengamos una visión heliocentrista del Sistema Solar.

Que de un mismo hecho “la salida del Sol” se puedan deducir dos visiones del mundo tan dispares es entre otras cosas lo que permite a Feyerabend lanzar su “anarquismo metodológico”:

Sólo hay un principio que puede defenderse bajo cualquier circunstancia y en cualquier estado del desarrollo humano. Es el principio de: Todo vale”. (Feyerabend)

Y afirmar que el éxito de las teorías científicas y su “imposición” sobre otras a las que refuta, no se debe tanto a lo cerca o lejos que están de “la verdad”, sino a la capacidad argumentativa de sus defensores sobre sus detractores. Como más tarde diría:

Uno de mis motivos para escribir Contra el Método era liberar a la gente de la tiranía de filósofos ofuscadores y conceptos abstractos como “verdad”, “realidad” u “objetividad”, porque estrechan su visión y forma de estar en el mundo.” [25]

Imagen de Paul Feyerabend

All work and no play makes Paul a dull boy

Luego Feyerabend llega a decir que la superioridad epistémica de la ciencia es algo que elegimos creernos, y que por lo que a él respecta, no había nada que permitiese elegir objetivamente entre la ciencia y otras formas de conocimiento como la astrología, la medicina alternativa o el voodoo.

Muy fuerte.

Me gustaría cerrar este capítulo con dos reflexiones. La primera es que hay un célebre artículo de la revista Science en el que se califica a Feyerabend como “el peor enemigo de la Ciencia” y “traidor a la verdad” [26] por reflexiones como esta.

Y la segunda. Maldita sea, volvemos a Aristóteles en su crítica al relativismo moral de los sofistas, y a su capacidad de usar la retórica para defender los argumentos de aquellos que participaban en el gobierno de la polis. Hemos pasado de la objetividad de la ciencia, al relativismo científico.

La Relatividad como visión del mundo

El relativismo científico también forma parte del hilo conductor de «Oppenheimer», con apariciones estelares de algunos de los científicos que investigaron y desarrollaron la física cuántica. Niels Bohr, Werner Heisenberg, Albert Einsteinla mecánica cuántica es una revolución sin parangón en la ciencia. Resulta que las partículas a nivel subatómico no se conocen con exactitud, se conocen con una probabilidad, una función de onda que nos dice la probabilidad que tenemos de encontrar una partícula en un determinado instante.

Pero no se vayan todavía, que aún hay más. Además, hay un Observador que interfiere con lo Observado porque lo determina. Como un voyeur que, por el hecho de estar presente, condiciona el mismo acto que está viendo: su presencia en la realidad condiciona la misma realidad que observa. “¿De verdad crees que la Luna no está ahí si nadie la mira?” llegó a preguntar Einstein a Abraham Pais.

Presencia Intencional, Voluntad de observar.

A principios del siglo XX la física deja de ser determinista, Bohr (Kenneth Branagh en la película, qué curioso que en las dos últimas películas de Nolan, Branagh sea quién juega a destruir la realidad [27]) propone el Principio de Complementariedad que combina ambas: antes de hacer el experimento las partículas subatómicas se comportan como ondas según la ecuación de Schördinger; y cuando se hace el experimento, se las puede asignar propiedades como posición y momento siguiendo la ecuación de Born. De manera que, si no se hace el experimento, ¿esas partículas no tienen esas propiedades?

Es la primera vez en la historia de la ciencia que un mismo sistema tiene dos reglas, dependiendo de si hay o no un Observador necesario. No podemos conocer la realidad, sólo aspectos de la realidad.

Esta llamada “interpretación de Copenhague” [28], y todas sus críticas, se hacen para defender el determinismo de la física, la ciencia más “dura” y más “pura” de las ciencias naturales, aquella con mayor capacidad explicativa y predictiva.

Es en este contexto en el que Einstein escribiría a Paul Epstein que «Dios no juega a los dados con el Universo» [29] en su intento por preservar la noción de un Universo determinista, y objetivo; frente a una visión de los antirrealistas que defendía que, en su nivel más bajo y fundacional, el atómico, no existe una realidad determinista. ¿Por eso Einstein pasea cabizbajo y melancólico en sus encuentros con Oppenheimer? Hasta el fin de sus días Einstein negó que la mecánica cuántica fuese una “teoría terminada”.

Si no hay una realidad determinista, si la realidad depende de la persona que la observa, entonces el Observador tiene un papel fundamental en la ciencia. La realidad ya no es independiente de quién la mira, dos personas, con distintas capacidades y competencias, tendrán dos visiones distintas de la realidad.

Y esa es precisamente otra de las cosas que vemos en el trasfondo de «Oppenheimer». No sólo la relatividad y la mecánica cuántica como motor del experimento atómico. También vemos la búsqueda del científico comprometido con una visión del mundo, una visión política. Vemos que no les queda más remedio que tolerar a Oppenheimer, aunque es simpatizante del Partido Comunista, y esto le hace sospechoso. Pero es valioso para el objetivo del proyecto. Conspiran contra él cuando su visión personal del mundo entra en conflicto con la ciertos los políticos.

Habíamos dicho al principio que ciencia es conocimiento, y no intervención. Pero en la mecánica cuántica, no podemos conseguir el conocimiento sin intervenir en el sistema.

La realidad depende del Observador, y por tanto de su Intención, que responde a su Voluntad.

Resulta que no sólo la Tecnología es Intencional.

Parece que en cierto sentido también lo es la Ciencia

Epílogo

Si has llegado hasta aquí, te pido un favor: si algún día te sorprendes a punto de decir que la “tecnología no es buena ni mala, depende del uso que se haga de ella”, párate un momento a pensar en la Intencionalidad y la Voluntad de quién la crea.

Gracias.

Redux

Una versión resumida de este ensayo se publicó en Retina el 2 de octubre de 2023

Lo que ‘Oppenheimer’ nos puede enseñar sobre Tiktok. Intencionalidad y Voluntad

Referencias

[0] https://www.dataprotection.ie/en/news-media/press-releases/DPC-announces-345-million-euro-fine-of-TikTok

[1] https://techpolicy.press/transcript-tiktok-ceo-testifies-to-congress/

[2] https://www.bloomberg.com/news/features/2023-04-20/tiktok-effects-on-mental-health-in-focus-after-teen-suicide

[3] https://www.wired.co.uk/article/twitter-child-sexual-abuse-material

[4] https://cyber.fsi.stanford.edu/news/addressing-distribution-illicit-sexual-content-minors-online

[5] https://web.archive.org/web/20140802011449/http://www.forbes.com/sites/jimclash/2014/07/28/elon-musk-tells-me-his-secret-of-success-hint-it-aint-about-the-money/

[6] https://thehill.com/opinion/national-security/3506604-conservatives-blame-everything-but-guns-for-mass-shootings/

[7] https://edition.cnn.com/2018/02/21/politics/trump-listening-sessions-parkland-students/index.html

[8] https://ktsecuritysolutions.com/our-products/

[9] https://www.gad3.com/abc-y-vocento-estimacion-elecciones-generales-por-provincias/

[10] “Treatise of Human Nature”, David Hume, 1749

[11] https://plato.stanford.edu/entries/thomas-kuhn/#ConcPara

[12] https://plato.stanford.edu/entries/episteme-techne/

[13] Después de varios años estudiando filosofía, he llegado a la conclusión de que analizar de dónde vienen las palabras y cómo se forman los conceptos es parte fundamental de la disciplina, así que no te lo tomes como una muestra más de lo petulante que puedo llegar a ser. En fin, esto de la etimología no deja de ser una pesadilla sobre todo cuando se lee a Husserl o a Heidegger.

[14] “Ciencia de convertir materias primas y materiales en productos terminados y bienes de consumo mediante la aplicación de conocimientos científicos y técnicos.” Vale, citar cosas en alemán sí puede ser petulante.

[15] “Tecnología: un enfoque filosófico, y otros ensayos de Filosofía de la Tecnología”, Miguel Angel Quintanilla, 2018.

[16] “Die Welt als Wille und Vorstellung”, Arthur Schopenhauer, 1819

[17] Salvo que hablemos de las máquinas que se replican a sí mismas, aunque claro, no se crean, sino que se copian. Esta idea parece que también está a punto de llevarse a cabo https://sciendo.com/article/10.2478/biocosmos-2023-0002

[18] Viendo las representaciones de las primeras versiones del estribo que usaban en la India, no me termina de quedar claro si eran príncipes que iban de paseo, o guerreros. Por cierto, están datadas en los siglos II y I AC https://wildfiregames.com/forum/topic/28619-ancient-indian-horse-support-toe-stirrup/

[19] https://www.nature.com/articles/143471a0

[20] https://es.wikipedia.org/wiki/Archivo:Einstein-Roosevelt-letter.png

[21] https://www.youtube.com/watch?v=wki4hg9Om-k

[22] https://www.rerf.or.jp/en/faq/

[23] “Studies in the logic of Explanation”, Hempel y Oppenheim, 1948

[24] “An Attempt at a Realistic Interpretation of Experience”, Paul Feyerabend, 1958

[25] “Against Method: Outline of an Anarchistic Theory of Knowledge”, Paul Feyerabend, 1975

[26] https://www.nature.com/articles/329595a0

[27] Me pregunto si eso es parte de la Intencionalidad de Nolan. Me gusta creer que sí.

[28] https://en.wikipedia.org/wiki/Copenhagen_interpretation

[29] https://www.christies.com/lot/lot-6210431/?intObjectID=6210431&lid=1

La pregunta por la Inteligencia Artificial Generativa

Tiempo de lectura: 3 minutos (nivel hilo de tuiter)

Este post es una reflexión sobre la naturaleza de la poiesis en la época digital, al hilo de una imagen que se volvió viral a finales de marzo de 2023. La imagen representaba al Papa Francisco paseando con un plumas blanco estilo Balenciaga, publicada en Reddit por el usuario «trippy_art_special» y generada con Midjourney.

The Pope Drip

The Pope Drip por Reddit / u/trippy_art_special (usuario eliminado)

Me pregunté si una obra generada por Midjourney, capaz de revelar una verdad, una emoción, la esencia de una idea, y generar un debate en la sociedad estaba cumpliendo la función del arte como desvelamiento.

Y sobre esa pregunta escribí un breve ensayo, que se llama «La pregunta por la Inteligencia Artificial Generativa«, así, como si sólo hubiera una, pero es mentira, porque hay cosa de veinte, que las he contado:

¿Hay sitio para la creatividad en la era de la inteligencia artificial generativa?
¿Qué es la poiesis y por qué es importante?
¿Por qué es necesario usar las manos para crear?
¿Por qué pensamos que el arte es la forma más elevada de creatividad?
¿Qué quiere decir que el artista desvela una verdad y al hacerlo se desvela a sí mismo?
¿Una imagen generada por inteligencia artificial desvela una verdad?
¿Hay voluntad en la inteligencia artificial?
¿A qué voluntad responde la inteligencia artificial generativa?
Si un ser humano quiere desvelar una verdad que ha imaginado, ¿es relevante que lo haga él mismo con sus propias manos?
¿Por qué recelamos de que lance al mundo su imaginación a través de una IA?
¿Por qué no queremos que un algortimo sea otra herramienta para nuestra poiesis?
¿Quién determina que la forma aceptable es una herramienta en la mano?
¿Qué es el aura de una creación? ¿Existe en el siglo XXI?
¿Dónde está la autoría en la Inteligencia Artificial generativa? ¿Y la causalidad?
¿Podemos encontrar una visión más inclusiva del proceso creativo que reconozca las formas que podemos crear en nuestros tiempo?
¿Por qué es importante una herramienta en la mano?
¿Y si hemos trascendido la esencia del arte?
¿Y si la inteligencia artificial generativa es la forma en que algunos humanos podemos revelar nuestra verdad y revelarnos a nosotros cuando lo hacemos?
¿Y si la creatividad artifical es lo que habilita que desarrollemos nuestra creatividad humana?

Estas preguntas que me hice me han llevaron a recorrer un sendero de pensamiento en torno a 3 ideas principales:

  1. Que los seres humanos tenemos la capacidad de imaginar, creamos ideas que somos capaces de verbalizar (o no), pero algunos de entre todos los humanos, no todos, sólo algunos con un «don», han sido capaces hasta ahora de hacer verdad sus ideas a través de una creación que dota de un medio físico a su idea (una escultura, una pintura, una melodía…)
  2. Si la técnica con la que creamos se adecúa y evoluciona a lo largo del tiempo, según evolucionan las herramientas que tenemos disponibles; o la forma en que mejoramos el uso de las herramientas que ya estaban disponibles; o aparecen nuevas herramientas.
  3. Si la Inteligencia Artificial Generativa, una herramienta tecnológica que crea textos, imágenes o vídeos, a partir de la Voluntad de un usuario para representar las ideas que tiene en su mente, se puede aceptar como una forma de poiesis del siglo XXI.

De lo que se podría pensar entonces si la Inteligencia Artificial Generativa es una herramienta que permite a los seres humanos desvelar sus verdades y compartirlas con el resto, y por tanto, mejora porque amplifica o complementa a aquellas personas que hasta ahora no han encontrado un «don» para hacer materiales las ideas de su imaginación.

Y dos contra-argumentos principales:

  1. Qué convierte en creador a una persona y si es el hecho de materializar por sí mismo con sus propios medios su idea concebida. ¿Un procesador de textos, o una tableta de diseño, o una mesa de mezclas son aceptables para convertir a un humano en creador?
  2. Y por qué la forma en que se materializa esa creación tiene que ser con una herramienta en la mano, cuando ya hemos aceptado en el siglo XXI la creación digital, herramientas que no transfieren a la materia si no a lo digital.

El artículo entero lo puedes leer en la revista Ethic:

https://ethic.es/2023/09/la-pregunta-por-la-inteligencia-artificial-generativa/

Seguro que me faltan muchas preguntas, sobre todo las tuyas.

La Fuga de Logan

Tiempo de lectura: 5 minutos (ligerito)

Nunca he conseguido olvidar la escena del Carrusel, y mira que han pasado años. Es algo que se imprimió en mi cerebro de niño, y por algún motivo profético me ha acompañado durante toda mi carrera profesional, y más todavía ahora que empiezo a embutirme ese atrevido mono blanco con llamas rojas. «La Fuga de Logan» vaticinaba un mundo en el que las personas, al cumplir los 30, eran sacrificadas en un ritual diseñado para asegurar el futuro colectivo.

Logan's Run Poster

La Fuga de Logan es una distopía escrita por William F. Nolan y George Clayton Johnson.

No hay mucha gente que la recuerde, claro. En España, la pasó TVE1 a principios de los 80. Vaya mierda de forma de cumplir años, pensaréis. Ascender dando vueltas por el aire hasta la desintegración, con la vana promesa de que si habías sido un miembro respetable y productivo de la sociedad, renacerías para seguir remando. Y si no, pues fuera. Mientras tanto, el público en éxtasis celebraba cómo uno a uno, los cumpleañeros eran desintegrados. Lógicamente, celebraban que estaban vivos y que todavía no les tocaba. Todavía.

Es la mejor metáfora que he encontrado para explicar cómo funciona el mercado laboral en general, y las Revoluciones Tecnológicas en particular.

Ahora que estoy más cerca de los cincuenta que de los nuevos 30, miro a mi alrededor y me veo ascendiendo en el Carrusel, pensando que, con un poco de suerte, podré hacerme coach y enseñarle al siguiente que venga algo de lo que he aprendido. Porque dice LinkedIn que en España sólo hay 72.000 coachs para más de 919.000 directores, osea que parece que hay mercado.

Logan's run carousel

«Todos los demás en un rincón, evitando la conversación»

El caso es que yo veo cada vez menos gente «senior» a mi alrededor, menos canas, menos sabiduría de la que da la experiencia, menos criterio, y me pregunto dónde estarán y qué hacen, y les imagino paseando al perro, algunos con su prejubilación, otros con una paguita, los más desintegrados en el paro de la Larga Duración por el bien de la sociedad, por el bien del siguiente que venga.

Mientras eres público, el Carrusel se ve de otra manera. ¿Es cosa mía, o tenéis la sensación de que cada vez se sube al Carrusel antes?

Y pienso en que las Revoluciones siempre se han hecho a base de dejar a gente atrás, y que nunca nos ha importado porque total, no hemos sido nosotros. Hemos visto normal que la gente tuviera que dejar el campo para irse a la ciudad a trabajar en una fábrica, porque el campo ya lo araban los tractores. Y después, hemos visto normal que la gente tuviera que dejar las fábricas, porque total, ya se automatizaba la producción. Y después, con la Globalización (que no se por qué no se cuenta como Revolución), hemos visto normal que las fábricas había que cerrarlas, porque total, se fabrica más barato en los países del este, o directamente en Asia.

Y bueno, porque siempre ha sido así.

Logan's run Carousel

«Apaga y vámonos, antes de ayer, ya nos la clavaron otra vez»

A mí me ha tocado la revolución de lo digital. Cuando era pequeño, recuerdo haber ido al Banco Central Hispano que había en la Glorieta de Ruiz Jiménez con mi padre. Después de hacer una cola, un señor en una ventanilla te decía que cuánto dinero querías sacar, tú le pasabas el DNI y una libreta por debajo de una ranura, y él a cambio te daba el dinero que le habáis pedido (si tenías saldo, claro). Yo mientras tanto, jugaba con unos bolígrafos negros, alargados como plumas, sujetos con cadenitas porque la gente roba.

A todo el mundo le pareció normal que los Cajeros Automáticos sustituyeran a los Cajeros Persona, porque «la experiencia de usuario», la «eficiencia», la «disponibilidad»… Claro, a los Cajeros Persona imagino que les pareció una putada.

¿Quién no ha intentado robar uno de estos?

Luego llegó la revolución de la «Transformación Digital«, que a mí me pilló de lleno. Todo el mundo a hacer procesos digitales, a contratar consultoría técnica, y a reducir procesos personales, o sea, a cerrar oficinas. Ya no hacían falta tantos oficinistas (administrativos, comerciales, financieros, contables…) ahora lo que hacían falta era técnicos (desarrolladores, diseñadores, arquitectos, analistas…)

¿Las gallinas que entran, por las que salen?

¡No! El resultado neto es positivo. Se crea más empleo del que se destruye.

¡Ay! Esa mentalidad utilitarista que todo lo explica…. Lo que pasa es que ejem, hay un pequeño problema… Se crea empleo, pero las personas no coinciden. Hay gente que entra, y gente que se queda fuera. Resultado neto significa que entra más gente, pero… ¿qué pasa con la gente que se queda fuera?

Al menos aquí estamos en Europa, y Europa se fundó con la idea de que nadie se quede atrás, o que si se queda, no se quede muy tirado. Algo de lo que debemos sentirnos especialmente orgullosos sobre otros modelos que ponen por encima al Estado (como en China), o a la inicitiva privada (como USA). Aunque las ventajas de los modelos que ponen por encima al ciudadano parece que también se ponen en duda. Brexit, populismos, y demás.

Total, que ahora llega la revolución de la Inteligencia Artificial, que me resulta interesante por dos motivos.

El primero, porque combina varios factores. Está liderada por las grandes empresas privadas que nunca pierden (porque son las que ofrecen las plataformas que alimentan al resto), afecta a los «trabajadores del conocimiento» (esos nómadas digitales que subían a Instagram lo bien que se teletrabaja desde una playa o desde un parque), y porque va a hacer una redistribución asimétrica del empleo.

La Revolución de la IA es una Revolución Digital-Globalizada. Eso quiere decir que la destrucción de empleo y la creación de empleo no van a coexistir necesariamente en los mismos países.

Y esa, para mí, esa es una de las las principales diferencias.

La segunda, porque todos estamos pensando en cómo la Inteligencia Artificial va a afectar a los empleos del pasado y a los empleos del presente, pero ya no sabemos cómo van a ser los empleos del futuro. Y por favor, que nadie me diga que el empleo del futuro es paisajista en el Metaverso, porque eso también lo puede hacer Midjourney.

Logan's Run renewal

«Listos para la reconversión»

El reto que vamos a vivir, que ya estamos viviendo, no se mide a nivel «trabajador», ni a nivel «empresa» o a nivel «comunidad», sino a nivel país y a nivel bloque. ¿Cómo vamos a gestionar a nivel Europa que los empleos que se destruyan en España ya no se creen en Rumanía, sino que se creen en la India, y que eso sea crecimiento neto por ejemplo en la India?

¿Vamos a hacer los Fondos NextGen internacionales?

Y ¿qué empleo del futuro vamos a crear en España que no pueda hacerse por ejemplo en la India?

No es de extrañar que la solución a la que llegaron en 2015/2016 los empresarios que lideran la Nueva Economía desde Sillicon Valley haya sido la Renta Básica Universal.

En fin, la verdad, me parece injusto pasarme el día leyendo bullshit y propaganda sobre qué es o qué deja de ser «la innovación«, «el pensamiento crítico«, «los problemas complejos» o «poner a las personas en el centro«, para acabar aceptando que «es que las Revoluciones siempre se han hecho así«.

Con gente que entra para que haya progreso, y gente que se queda atrás para que otros progresen.

O paguita para todos, y a seguir consumiendo.

En fin. Espero que por lo menos, después de todos estos años haciendo spinning, esas mallas rojas me hagan 🍑

En el Metaverso, la Experiencia es la Evidencia

Aproximarse a una nueva tecnología es como pelar una cebolla, tienes que hacerlo por capas y sabes que en algún momento se te van a saltar las lágrimas. La tecnología nunca ha sido la respuesta, nunca ha sido un fin en sí misma, eso es algo que todos los que trabajamos en innovación y en tecnología tenemos claro. Es un medio. ¿Para qué? Para resolver problemas.

Me gusta la metáfora de la innovación por oleadas, oleadas de olas del mar, digo. Una innovación exitosa reemplaza la alternativa existente, y permanece mientras no llegue otra que la reemplace. ¿Por qué la reemplaza? Pues porque ofrezca una solución «mejor» al problema. El carro con tracción animal fue la solución que el ser humano encontró al transporte de mercancías en el segundo milenio antes de Cristo. Aquello aguantó cuatro mil años, hasta que fue reemplazado por vehículos con motor. Lo mismo que el arado y el tractor. Aún así, la FAO sigue recomendando la tracción animal [1] como alternartiva para la agricultura sostenible, y estimaba que en 2013 había en el mundo 400 millones de animales involucrados en la agricultura [2], sobre todo en Asia, India, Latinoamérica… Por cierto que acabo de ver que en USA hay sólo 13 millones de camiones en circulación, osea que remplazar, lo que se dice remplazar… [14]

A veces se nos olvida que aceptamos la innovación cuando resuelve mejor los problemas. No cuando es la alternativa que ha encontrado una empresa para seguir creciendo. Ese es el principio de la Miopía de Marketing [3] que propuso Theodore Levitt en… ¡¡1960!! Lo que pasa es que nos pensamos que las ideas que alguien tuvo en los años 60 ya no aplican a los negocios digitales del siglo XXI. Así pasa, claro.

Por eso es importante recordarlo de vez en cuando. Quizá la forma más honesta de abordar la cuestión del Metaverso, como la del Blockchain o la de los NFT, o la de las IA que crean imágenes o que programan código, sea a través de tres preguntas sencillas, que para mí son siempre las mismas. Y tratar de aplicar la honestidad y el pensamiento crítico para responderlas.

¿El Metaverso reemplazará o complementará? Yo digo que complementará. ¿Cuándo? Cuando responda a las tres preguntas.

Neil deGrasse Tyson

¿Se puede hacer?

La primera pregunta es la de la factibilidad. ¿Se puede hacer? Vivimos rodeados de avances tecnológicos, sin embargo muchas veces su madurez o capacidad real de fabricarse de manera industrial, o de llegar a los consumidores, es limitada. La pregunta de la factibilidad hay que responderla intentando a ser posible obviar los intereses del mercado. ¿Ah, pero que el mercado tiene intereses? Claro, hay un montón de gente invirtiendo un dineral en construir Metaversos, y lo están haciendo porque quieren obtener más dinero a cambio. En eso consisten las inversiones.

¿Es factible construir un Metaverso? Bueno, dependerá de lo que entendamos por un Metaverso. Ante una definición general que defina el Metaverso como «un entorno de Realidad Virtual o Realidad Aumentada que permita la conexión y la interacción de sus miembros», la respuesta es sí. El Metaverso es factible. Ya lo era cuando se lanzó Second Life en el año 2003.

¿Es factible crear gafas inmersivas de Realidad Virtual? ¿Controladores hápticos? Ya están inventados y se pueden comprar en cualquier parte. Hay empresas que incluso han desarrollado sistemas que permiten reproducir olores [4] y sabores [5]. Osea que sí. Pero eso ya sabíamos que era lo fácil.

¿La gente lo puede comprar?

Ahora bien, ¿son accesibles? Esa es la segunda pregunta. Con una derivada. ¿Y la gente que lo puede comprar lo hace? Para mí la clave que determina la capacidad de tracción de una tecnología es lo fácil que resulta su aceptación y adquisición por los usuarios a los que va dirigida.

Siempre me gusta trasponer conceptos tecnológicos al mundo del gaming, porque sabemos que es un contexto en el que coinciden:

  • innovación tecnológica.
  • gente joven dispuesta a aceptar cosas nuevas que pueden experimentar.
  • grandes inversiones, y grandes cifras de negocio.

¿Qué pasa en el mundo del Gaming con la Realidad Virtual? Uno podría pensar que el mundo del gaming es el exponente máximo de la VR. Los consumidores se dedican a vivir nuevas experiencias (ser futbolistas, ser pilotos de carrera, ser superhéroes, ser commandos, ser fontaneros…) Así que, tiene sentido pensar que los consumidores están listos para vivir experiencias inmersivas en masa.

Veamos las ventas de equipos de VR de Sony Playstation. Lanzados en 2016, hasta finales de 2020 se habían vendido 5 millones de unidades. Es la última cifra oficial que liberó Sony [6]. En ese mismo periodo de tiempo, de 2016 [7] a 2020 [8] se habían vendido 53 millones de consolas PS4. A mí esto ya me parece un dato muy interesante.

Que una tecnología innovadora, factible y accesible solo haya sido elegida por el 9% del mercado potencial me hace pensar en la siguiente pregunta.

¿Mejora la experiencia actual?

Y esta última pregunta es para mí la más importante. La que siempre se olvida, en la que nunca se piensa, y es la que como innovadores requiere, desde mi punto de vista, la aproximación más honesta. Porque supone aceptar que la factibilidad o accesibilidad de la innovación es lo de menos, pese a que son conceptos tentadores. Y nos lleva a entrar en un terreno tal vez más espinoso. ¿Esa tecnología mejora la experiencia que ya existe?

Para mí es la clave de cualquier innovación tecnológica. La tecnología no es la respuesta, es el medio para resolver un problema. Recordemos las oleadas. Aquellas olas de innovación que mejoran la experiencia previa se implantan y se mantienen, y sólo son reemplazadas por la siguiente ola que las mejora.

Henry Ford y los caballos

Henry Ford pensaba que las personas querían caballos más rápidos

Los vehículos con motor de explosión mejoraban la experiencia de la tracción animal porque llegan más lejos, pueden llevar más mercancías, no se cansan y vas sentado en un asiento con respaldo. Incluso hay «asientos de atrás». Y vale, son más rápidos. Pero en la India, dos terceras partes de los campos de cultivo siguen usando la tracción animal [9]. ¿Por qué? Imagino que para los pequeños agricultores locales es más barato y accesible. Osea que sigue siendo la forma más adecuada de resolver su problema de ganarse la vida.

Al final, las necesidades y por tanto los problemas, son siempre los mismos, lo que va cambiando es la forma de resolverlos. La televisión mejora la experiencia de la radio; la prensa online mejora la experiencia de la prensa impresa; y el streaming mejora la experiencia del CD, que mejora la experiencia de la casete. El vinilo está de vuelta porque hay personas que pensamos que el streaming no mejora la experiencia del vinilo.

¿Qué experiencias mejora el Metaverso?

El Educaverso

Este artículo lo preparé hablando del sector educativo. ¿Puede el Metaverso mejorar la experiencia educativa? ¿Tiene capacidad de hacerlo de manera masiva? ¿Será algo puntual, complementario? ¿O no será?

Yo creo que complementará. Y que ese rol complementario no justifica ni la inversión ni el ruido que están haciendo. Por tanto, yo elegiría ser muy cuidadoso a la hora de poner ahí mi dinero.

Para explicaros mi razonamiento, quiero compartir dos ejemplos concretos que he vivido en primera persona.

En mi etapa de Chief Innovation Officer de SNGULAR, teníamos un caso de éxito espectacular en el Studio de Fernando Rada [10]. Centrado precisamente en el uso de Realidad Virtual en entornos formativos. Resolvía un caso muy concreto, de una forma mejor que la que había hasta entonces. Se trataba de una formación especializada para técnicos. Tenían que resolver unos ejercicios con componentes electrónicos y circuitos, y para hacerlo tenían que usar un dispositivo físico: un maletín que tenía los componentes necesarios para hacer los ejercicios. El número de personas que podían formarse al mismo tiempo estaba limitado por la disponibilidad de los maletines de formación, que debían además mandarse de un sitio a otro según la localización de las personas. Cada vez que se diseñaba un nuevo componente, había que volver a fabricar los maletines. La Realidad Virtual permitía que esos ejercicios se pudieran hacer con una Playstation 4 en cualquier sitio. Como había más PS4 que maletines de formación, y salían más baratas, el número de personas que podían hacer la formación al mismo tiempo crecía. Y ante una release de un nuevo dispositivo, no había que cambiar hardware sino software. La nueva experiencia mejoraba la anterior.

Ahora en IRONHACK estoy más cerca del mundo de la educación. El método Bootcamp no deja de ser una experiencia formativa; es un acercamiento práctico e inmersivo al aprendizaje, en este caso, de la tecnología. Partiendo de las competencias y capacidades que se le pide a un programador junior en su primer trabajo, se ha diseñado un modelo de aprendizaje en equipo, presencial y remoto. La experiencia de 9 semanas de práctica para aprender a programar, diseñar o analizar datos, mejora claramente otras alternativas, y ofrece a los alumnos un contexto de esfuerzo compartido que les permite crear relaciones y estrechar lazos. La presencia del equipo docente formado por un Lead Instructor y dos Teacher Assistants, que les acompañan durante esas 9 semanas, es fundamental para que lo terminen.

¿Mejorará esa experiencia el Metaverso? Reformulo la pregunta. ¿Cómo puede el Metaverso mejorar la experiencia de aprender a desarrollar software? Sinceramente, ahora mismo dudo que pueda. Hoy en día seguimos programando como cuando se empezó: escribimos las instrucciones que queremos darle a un compilador o a un intérprete, para que las ejecute a ver qué pasa.

Bueno, me diréis, pero también hay formación remota. ¿Puede el Metaverso mejorar esa experiencia? En el momento en que le pedimos a una persona que haga dos cosas contradictorias, estamos perdidos. No puedes estar programando con tu teclado y ratón y tu editor de código, y al mismo tiempo conectado en un Metaverso, y menos con gafas de realidad virtual. ¿Puedes tomar apuntes mientras estás metido en el Metaverso? ¿Puede ser mejor interactuar con avatares en un entorno inmersivo que hacer una videollamada? ¿Puede ser mejor hablarle a un avatar que a un profesor? ¿O compartir un problema con un avatar que con un ser humano? ¿Tú qué prefieres? Si no es una experiencia mejor para la persona, la rechazará.

Exacto, la tecnología puede mejorar una experiencia, pero también puede empeorarla.

La manía de las cosas que persisten

La pregunta de si una tecnología mejora la experiencia existente tiene una coda adicional, que además de relevante, la considero clave para hacer cualquier trabajo de prospectiva de Futuro. Entronca con el pensamiento de Taleb [20], uno de mis filósofos de cabecera. Es la que tiene que ver con lo fácil o difícil que es mejorar algo para reemplazarlo. Con su capacidad de perdurar y sobrevivir a los cambios. La antifragilidad. Hay tecnologías que se resisten a morir. Que crisis tras crisis, ciclo de cambio tras ciclo de cambio, revolución tras revolución, persisten. Osea que algo debe haber ahí.

Hay experiencias que no están superadas. Comer con cubiertos. Dormir en una cama. Pasar las páginas de un libro. Montar en bicicleta. Sentarte en una silla. Hay que estar muy seguro, y ser muy humilde, para querer mejorar algo que lleva con nosotros tanto tiempo.

La Silla de Hatnefer

La Silla de Hatnefer se diseñó en el 1492-73 Antes de Cristo

Fijaos en el diseño de la Silla de Hatnefer [11], datada en torno al mil cuatrocientos y pico antes de Cristo. Y fijaos en la silla para la terraza que estuve viendo este verano. En 3.500 años hemos añadido los reposabrazos. Sí, vale, es una exageración. Los egipcios ya diseñaban sillas con reposabrazos [12].

La idea de un profesor que tiene un conocimiento que compartir, y padres que llevan a sus hijos a que se lo enseñe, está documentada en la Academia de Platón en el siglo IV antes de Cristo [13]. El ser humano ha perpetuado esa experiencia de aprendizaje durante más de 2.300 años. Cómo enseñe el profesor, es otra cuestión. Los materiales que use. Eso claro que ha ido cambiando.

Hay otras actividades esenciales para el aprendizaje que han persistido. Tomar apuntes, dejar por escrito lo que alguien ha entendido, para pensar sobre ello, y elaborarlo de nuevo con sus propias palabras. Hacer trabajos. Gorronear trabajos y apuntes. Etc.

Estas experiencias no han sido superadas todavía, y quizá es en lo alguien que quiera llevar el Metaverso al mundo educativo debería pensar. No en la factibilidad. No en la accesibilidad. Si no en si realmente mejora la experiencia existente.

Una de mis anécdotas favoritas, que levanto en este tipo de reflexiones, es el mítico Mitin de Gaspar Llamazares en Second Life, en mayo de 2007 [14]. Por favor, no entendáis este comentario como una forma de cuestionar ideas políticas, en este blog no se habla de política. Imagino que por algún motivo alguien del equipo de campaña pensó que sería buena idea organizar un mitin en Second Life, porque estaba de moda y había hype. Total que lo hicieron, y se conectaron entre 80 y 89 personas. Y alguien, seguramente de una agencia de medios, dijo que 90 personas en Second Life eran el equivalente a 10.000 personas en la vida real. No me jodas.

Llamazares en Second Life

Gaspar Llamazares da un mitin en Second Life en 2007

Ya he dicho que en mi blog no se habla de política. Pero yo he estado en mítines de Julio Anguita. No se me ocurre ningún motivo por el que pueda ser mejor experiencia ir a un mitin en un mundo virtual que en persona. Si ibas a las fiestas del PCE además comías bocadillos de chorizo frito y patatas bravas, bebías minis de cerveza y siempre había un concierto de Sabina o de los Suaves. En todo caso, lo mejoraría porque no puedas ir. Y aún así, si no puedes ir, seguro que es mejor escuchar a tu político inspirador de referencia por la radio o verle por la tele.

Ahora pasan por mi LinkedIn post de personas que están buscando los casos de uso del Metaverso. Tienen la solución, ahora sólo les falta encontrar el problema. ¿Os suena esto? Es lo mismo que el blockchain. Han pasado ya 6 años desde que Don Tapscott publicase uno de los libros más fusilados en conferencias y ensayos [15]. Lo cierto que es que para lo único que ha servido el blockchain es para que unas pocas personas se hayan hecho muy ricas, y decenas de miles hayan perdido sus ahorros. Por favor, decidme que hay algo más que eso.

Cada vez que leo a personas que han organizado clases o conferencias en el Metaverso me acuerdo del bueno de Gaspar. La experiencia de ir a una conferencia online es terrible. Yo desde que acabó la pandemia no he vuelto a ir a ninguna. Es más, si me invitan a hablar en una conferencia online tiendo a declinar cortesmente. La mejor experiencia para escuchar a alguien que tenga algo interesante que decir es estar delante de él. Y luego tomarse muffins en donde el café para comentar con la peña. Por favor, que alguien me demuestre lo contrario.

¿Podrán las conferencias en el Metaverso remplazar las conferencias en persona? Mi teoría es que no. Las ciudades-estado griegas ya tenían el Ágora como un diseño arquitectónico específico, diseñado para la reunión de las personas. [16] Siempre que tengamos alternativa de reunirnos en persona, lo preferiremos antes que reunirnos en el Metaverso.

VoiceXMeetUp

Lo mejor de organizar VoiceXMeetup fue la gente Top que conocí

Incluso he llegado a leer artículos explicando la gran oportunidad que el Metaverso ofrece a las Bibliotecas. Vamos a ver, ¿me puede alguien explicar cómo va a mejorar la experiencia de leer un libro en papel en el sofá de tu casa, hacerlo en el Metaverso? Año tras año, las ventas de libros electrónicos están por debajo del 5% según el informe de la ONTSI [17]. Permitidme que me moje y diga que cualquier proyecto de leer libros en el Metaverso va a ser un fracaso.

¿Y el cine? Por favor, buscad qué ha pasado con las televisiones 3D. Y por favor, buscad qué ha pasado con las películas 3D. Ay Diosito, pero si yo fui al estreno de Avatar en el Heron City a verla en 3D. ¿Alguien se acuerda de esto del cine en 3D?

¿Entonces?

Entonces, si no se mejora la experiencia, a lo mejor todo se reduce a otra cosa.

A la siguiente vuelta de tuerca de un modelo de negocio que consiste en que haya gente que se registre, les mantengamos enganchados, les analicemos, y vendamos sus datos. A las empresas para que hagan publicidad, y a los políticos para que hagan campañas.

Facebook Monthly Active Users

Vaya. ¿Y ahora qué hacemos para crecer en USA y Europa? [19]

Que es completamente legítimo porque para eso alguien está metiendo dinero a espuertas. Pero pensemos si eso es lo que necesitamos las personas o lo que necesita la empresa que sólo ha encontrado esta salida para seguir creciendo.

Sería una pena que el Metaverso se quedase en eso.

Por eso decía lo de las lágrimas.

Referencias

[1] https://www.fao.org/teca/es/technologies/8683

[2] https://agris.fao.org/agris-search/search.do?recordID=FR2017104738

[3] https://hbr.org/2004/07/marketing-myopia

[4] https://ovrtechnology.com/

[5] https://www.cmu.edu/news/stories/archives/2022/may/haptic-virtural-reality.html

[6] https://www.sie.com/en/corporate/release/2020/200107.html

[7] https://www.forbes.com/sites/olliebarder/2017/01/05/the-ps4-has-now-sold-53-4-million-units-worldwide-with-6-2-million-sales-over-the-2016-holidays/?sh=3b89f8657b41

[8] https://fortune.com/2020/01/07/best-selling-video-game-console-playstation-4-sales-ps5-ces2020/

[9] https://www.researchgate.net/publication/296626595_Relevance_of_draught_cattle_power_and_its_future_prospects_in_India_A_review

[10] https://studios.sngular.com/es/vr-ar-immersive/

[11] https://www.metmuseum.org/art/collection/search/543868

[12] https://egypt-museum.com/golden-throne-of-tutankhamun/

[13] https://es.wikipedia.org/wiki/Academia_de_Atenas

[14] https://elpais.com/elpais/2007/05/13/actualidad/1179044223_850215.html

[15] https://blockchain-revolution.com/

[16] https://es.wikipedia.org/wiki/%C3%81gora

[17] https://www.ontsi.es/es/publicaciones/Informe-Anual-del-sector-de-los-Contenidos-Digitales-en-Espana-2020

[18] https://www.bts.gov/content/truck-profile

[19] https://social-stand.com/facebooks-2021-report-shows-huge-decline-in-daily-active-users/

[20] https://www.fooledbyrandomness.com/

Hay una versión resumida de este post en el especial Educación y Metaverso de EDUCAWEB.

 

El Triunfo de Moss

Tiempo de lectura: 9 minutos y medio

Hello, IT.

La puerta del ascensor no se abre del todo cuando llegas al sótano. Las luminarias parpadean, hay chorros de vapor y se oye de fondo el ruido de unas máquinas. ¿Qué máquinas? Cualquiera. Las de mantenimiento. Al final de un oscuro pasillo se llega a una habitación sucia y desordenada, donde cajas de cartón vacías, moldes de poliespán, monitores, teclados, discos duros y cables se amontonan en estanterías de metal. Los esqueletos de torres de sobremesa se alzan entre pilas de papeles, repisas y archivadores, una suerte de cementerio donde van a morir los navíos que naufragaron en el mar de los sargazos. Los pocos espacios libres que hay los ocupan figuras de colección de series de manga y superhéroes. En esa sala malviven «los informáticos».

“Nadie nos respeta ahí arriba. Nadie. Nos tratan como esclavos.”

Es el 3 de febrero de 2006. Se acaba de estrenar “The IT Crowd”. La serie que muestra la vida de los informáticos de una corporación multinacional de inversiones. La serie en la que dos desgraciados, el cínico Roy y el introvertido Moss, hacen de estereotipo del ingeniero informático. Personas que han fracasado en sus relaciones sociales y en su vida profesional, con un trabajo alienante donde no hay aprendizaje, ni proyección ni carrera. Mal remunerado y sin prestigio. En una empresa que les considera un mal necesario con el que hay que convivir. Jen, la nueva Directora del Departamento de IT, no sabe de ordenadores, pero sabe de personas. Encuentra su lugar en el equipo porque es capaz de servir de paraguas y canalizar el descontento del resto de los empleados hacia el equipo de sistemas.

Las personas que trabajabámos en tecnología en febrero de 2006 se dividen en 2 categorías: las que se sentían identificadas con los protagonistas de IT Crowd, y las que no veían esa serie.

¿Has probado a reiniciarlo?

En marzo de 2022, la demanda de profesionales digitales supera ampliamente la oferta. Conseguir cubrir las vacantes en los proyectos es algo que literalmente quita el sueño a responsables de áreas de People y Tecnología por igual. Da igual con quién hables, no hay gente.

Sólo las catástrofes naturales como la Pandemia de Covid-19 o desastres como la Guerra de Ucrania pueden llegar a suponer un pequeño freno a la escalada, pero a qué precio. Cada vez hacen falta más profesionales. En un mundo digital, lo que limita el crecimiento de las empresas no es la falta de clientes, la falta de inversión o la falta de oportunidades. Es la falta de profesionales para hacer los proyectos.

Es un problema global, que se puede encontrar en los países occidentales por igual. En nuestro mundo conectado, la demanda es global y la oferta es global; y por eso los mercados laborales se vuelven globales y líquidos. Todos hemos oído hablar de alguien que vive en una capital de provincia de (ponga aquí cualquier comunidad autónoma y acertará) con un salario de Sillicon Valley.

De repente nos hemos encontrado con una serie de problemas que ya no parecen ser coyunturales, sino que se han convertido en estructurales.

El problema de la selección

Cada vez es más caro contratar a “los informáticos”. No sólo en términos directos (salario). También en esas cosas indirectas o intangibles como son las condiciones, la cultura de la empresa, o los proyectos. Hay tantas oportunidades que los profesionales pueden elegir. ¿Quién elegiría trabajar en un sótano mierdero y mal ventilado? Malas noticias para Reyholm Industries.

Hoy es 27 de marzo de 2022 y me sorprendo cuando escucho a personas lamentarse de que sus desarrolladores se marchan porque en otras empresas “les ofrecen cosas como el teletrabajo”. Con dos años de Pandemia a las espaldas, ¿realmente te puedes permitir dejar salir a profesionales digitales por no tener una política de teletrabajo? Ahí hay mucho camino que hacer, cuando los profesionales pueden elegir, tu competencia ya no son el resto de empresas de tu sector. Tu competencia es cualquier empresa en la que un profesional digital podría querer trabajar. Básicamente, todas. Incluso la que funde él mismo.

El tema de las condiciones es algo que por suerte para los trabajadores, tiende a “igualarse por arriba”. Cosas como la jornada intensiva en verano, la inversión en formación, tener tiempo para ir a conferencias, las tardes de los viernes libres, etc., acaban por ser universales. Las damos por sentadas.

No quiero parecer frívolo, pero estamos en un sector donde ya hay empresas como Cabify que están “regalando un viernes libre al mes” o planteándose las semanas de 4 días laborables. Recuerdo cuando Paradigma Digital anunció en 2017 la Jornada de 8 a 15 todo el año. Que vale que era algo opcional y que habría que ver la letra pequeña de si estaba permitida para las personas que trabajaban en cliente, o sólo para los que están en oficina. Pero eso fue en el año 2017. Y el resto de empresas del sector lo tenían complicado para competir con eso. ¿Cómo vas a competir con tener las tardes libres para estar con tu familia, para tu toy project, o para ir a entrenar?

La empresa como aspiración

También es cada vez más habitual descubrir que el prestigio o la reputación de una empresa en su mercado ya no es algo que atrae al telanto. Que hay una desafección entre la Marca como la perciben los clientes, y la Marca como la perciben los empleados. Por eso hablamos de la Employer Branding. La reputación, en sí misma ha dejado de ser algo que atrae al talento.

Lo que atrae a las personas con talento son los proyectos y los contextos que les hacen crecer. Y eso es una combinación de varios factores, como puede ser lo retador del problema a resolver, el impacto en la sociedad que tendrá el resultado, la tecnología que se va usar, o incluso los propios compañeros. Las personas inteligentes atraen a otras personas inteligentes.

Hasta el punto que es una tendencia cada vez más aceptada asumir que los profesionales digitales trabajan en «proyectos» y no en «empresas». Yo creo que eso ya lo sabíamos en MediaNet Software en el año 2013, y de ahí nace la visión de lo que es hoy una empresa como SNGULAR.

El tiempo de contratación

Todo esto hace que el tiempo de contratación se alargue. Como hay tantas oportunidades y la gente puede elegir, los equipos de People se las ven y se las desean para mover candidatos por el funnel de atracción y selección. Todo el mundo está trabajando, todo el mundo está en varios procesos, todo el mundo quiere tener varias ofertas, y todo el mundo quiere negociar. ¿Cuánto tiempo hace falta para cubrir una vacante? ¿De 6 a 8 semanas? ¿Y cuántas vacantes tienes? ¿Cuánto hace falta para formar un equipo?

El problema del tiempo de contratación hace que los ciclos de tensión se inviertan. La tensión se traduce de los clientes a las áreas de venta, de las áreas de venta a las áreas de operaciones, y de las áreas de operaciones a las áreas de People. Recuerda: lo que limita el crecimiento de las empresas es la escasez de personas. ¿Y quién consigue las personas? Todo el peso del negocio se traslada al equipo de People, porque su responsabilidad es conseguir que entren personas.

Sin embargo, ¿en cuántas empresas el equipo de People tiene el estatus y consideración de área clave? Tener estatus y consideración de área clave significa tener presupuestos, medios y capacidad de actuación. Es ser el motor del crecimiento. Los motores del crecimiento necesitan aceite y gasolina. Lo contrario es ser un centro de coste que se tiene que eficientar. En fin, hay sitios que siguen teniendo áreas de «Recursos Humanos». Igual que hay personas que siguen usando la palabra «Recurso» para referirse a una persona.

Recurso

2. m. Medio de cualquier clase que, en caso de necesidad, sirve para conseguir lo que se pretende.

Sinceramente, si ves a las personas como medios para conseguir tus fines, no te auguro mucho éxito en tus planes de crecimiento.

La rotación

Otro factor determinante. A veces me imagino el mercado laboral como un gran esquema de robo de antenas de coche. Las personas van saltando de empresa en empresa, de manera que los huecos de una se cubren con los profesionales que salen de otra. Cuyas vacantes se cubren sacando a otros de la siguiente. Y así de vuelta al principio.

Este tipo de cambios alimentan la inflación salarial. En un proceso por el cual, el salario de los trabajadores ya no está exclusivamente relacionado con su experiencia o su capacidad de aporte a una organización, sino porque se les necesita. Yo no digo que esté bien o que esté mal, es algo sobre lo que ya escribió Adam Smith en el siglo XVIII y sigue vigente, osea que debe ser cierto.

¿Pero qué significa? Significa que ya no existe un ciclo de aprendizaje, que se ha pervertido. ¿Qué es la senioriry? ¿Y cuánto se tarda en conseguir? En la vieja escuela, habíamos asumido que existía un ciclo temporal por el cual las personas se enfrentaban a problemas, los resolvían y al hacerlo, se producía un aprendizaje. Ese aprendizaje ocurría dentro de un equipo, de acuerdo. Que los maestros enseñan a los aprendices se sabe desde los Egipcios. Igual que lo de las pirámides.

Veníamos de un contexto donde el aprendizaje estaba vinculado a la capacidad para resolver problemas, y el valor determinado por la capacidad de resolver problemas cada vez más complejos. Eso iba haciendo “crecer” a los profesionales, bien porque su aportación era mayor, bien porque podían canalizar las aportaciones del resto.

Ese crecimiento solía vincularse a conceptos como responsabilidad o contribución, con su equivalencia a un salario. No es que la demanda y la rotación estén haciendo que se inflen artificialmente los salarios. Es que están inflando las seniorities. ¿Tiene sentido que la seniority de una persona aumente porque haya cambiado el nombre de la empresa que le paga la nómina? ¿Cambiar de trabajo aumenta tu capacidad de resolver problemas?

Desde luego, determina la capacidad de resolver un problema en concreto: el problema del Ser y del Estar. Eres un profesional digital y un día día te incorporas a una empresa; y alguien deja de tener el problema de la vacante sin cubrir. Puede que a cambio haya creado otros problemas. Puede que esté alimentando el problema de la asimetría en los salarios de la plantilla, en el que las personas que vienen tienen mejores condiciones que las de las personas que ya estaban. Como ocurre con los clientes de operadoras de telefonía. O el problema de poner a personas en posiciones para las que no están preparadas, y el impacto que tiene eso en la calidad.

Pero es lo que ocurre. Son las reglas del mercado. Y a eso es a lo que tenemos que jugar. Ahí fuera hay un montón de empresas compitiendo por las personas con talento, y cada vez que una empresa anuncia que va a crear miles de puestos de trabajo, o que va a implantar la semana de 4 días, todo se tambalea. ¿Es sostenible? ¿Es pensamiento a largo plazo? ¿Y a dónde nos lleva?

El Triunfo de Moss

Según por dónde lo mires, puedes pensar que estamos en una época maravillosa para trabajar en tecnología. También puedes verlo como un drama. El drama de tener inversiones aprobadas que no se pueden poner en marcha porque no están las personas que las hagan.

El crecimiento de los costes directos e indirectos de la contratación, unido a la dilatación de los tiempos de contratación tienen un impacto directo en los ciclos de rentabilidad de las inversiones. Las condiciones en las que se aprobaron no tienen nada que ver con el resultado, conceptos como rentabilidad o TIR se van al garete.

Es genial que todo apunte a que entramos en un ciclo donde los CEO de las empresas serán ingenieros, que vengan de las direcciones de tecnología; y no tanto de la dirección comercial o de la dirección de financiera. Carlos Torres, Presidente de BBVA es Ingeniero en Electrónica por el MIT y fue director del área de Banca Digital antes de ser Consejero Delegado. Los modelos de negocio digitales, los canales digitales, las operaciones digitales… Cada vez más los ingresos y la eficiencia en las operaciones requieren personas que las comprendan y las lideren.

Las competencias tecnológicas son hoy en día lo que estudiar inglés era en los años 90. Nadie duda que una carrera profesional de éxito requiere hablar inglés, aunque sorprendentemente en España el nivel de inglés es más bien tirando a bajo. En un mundo en el que la tecnología va a seguir siendo un habilitador de los negocios, la necesidad de adquirir competencias digitales va a ir a más.

Pero ahora en serio. ¿Cuántos años llevamos hablando de esto? ¿No estáis aburridos ya? Yo sí. He conseguido trazarlo hasta abril de 2013, cuando en Estados Unidos se rechazaba que hubiese un problema de escasez de perfiles STEM. Me resulta curioso que el motor de la economía mundial se haya convertido en un mercado de escasez. Con problemas de escasez y modelos de gestión de escasez. Se ha consumado el triunfo de Moss. Todos te quieren, Moss. Todos te respetan, Moss. Eres el Centro del Universo.

¿Dónde nos lleva esto? Para saber a dónde nos lleva, quizá sea bueno pensar de dónde viene. Tal vez se nos ha olvidado que en el año 2006, veníamos de algo que se llamó «La Burbuja de las Puntocom». Yo tengo todavía que pensar (y escribir) mucho sobre esto. Pero lo cierto es que esta situación yo ya la he vivido. Salarios disparados. Alta rotación. Escasez de profesionales. Y de repente crash. De repente, unos guionistas ingleses se inventan «The IT Crowd» para hacer una comedia sobre los pobres desgraciados que trabajan en informática.

Cuando ves esa serie con la óptica del año 2022, nada tiene sentido.

El mundo de la tecnología es a día de hoy un ejemplo de Océano Rojo. ¿Cómo hemos llegado a él? Quizá es que todos leemos los mismos libros, vemos las mismas charlas TED, estudiamos en las mismas escuelas de negocio, nos suscribimos a las mismas newsletter y seguimos a los mismos gurús. Por eso todos pensamos igual, llegamos a las mismas conclusiones y aplicamos las mismas soluciones. Si todo el mundo hace lo mismo, nada es diferente. En el mundo de los negocios se dice que o eres diferente o eres barato. En el de las personas, es al revés. Si no eres diferente, tienes que pagar más.

Lo que pasa es que si hay Océanos Rojos, también hay Océanos Azules. Pero estoy cansado y es tarde. Te hablaré de ellos otro día.

 

PS- Steve Miller y su banda quieren dar refuerzo positivo a todos los jóvenes y no tan jóvenes profesionales. Ante la duda, coge el dinero y corre. Sigo con mi compromiso de meter un temazo sobre el dinero en los post de la categoría «Money Talks»

La bombilla en el simbolismo de la Innovación

(Tiempo de lectura: 11 minutos)

La comunicación simbólica es una forma de expresión inherentemente propia del ser humano, porque en ella intervienen los aspectos esenciales de nuestra humanidad: la sensibilidad, la imaginación, la memoria, y la comunicación.

¿Qué es un símbolo?

Dice la RAE que un símbolo es un «Elemento u objeto material que, por convención o asociación, se considera representativo de una entidad, de una idea, de una cierta condición«. Esto ya establece de partida que en un símbolo hay, al menos, dos elementos: un «significante» (el objeto material o su representación) y un «significado» (el concepto que representa).

Otra definición de Ricoeur abunda en la importancia de la relación entre significado y significante. «Llamo símbolo a toda estructura de significación donde un sentido directo, primario y literal designa por añadidura otro sentido indirecto, secundario y figurado, que sólo puede ser aprendido a través del primero.» El significante en un símbolo tiene por tanto una realidad dual: es lo que es en sí mismo, y a la vez, es también es lo que evoca. Al significado verdadero o primigenio, el que sí está presente, se le llama «referente«. En la creación del símbolo, el referente de alguna manera tiene que ayudar o hacer de clave, para orientar o descifrar la conversión del significante en su significado simbólico.

El hombre necesita al símbolo porque le sitúa en lo empírico y lo intangible, lo que podemos ver y lo que no. El proceso de interpretación de un símbolo es mental, por tanto interior, y supone un viaje desde lo visible, lo que existe, hacia una realidad conceptual que en el significante no está necesariamente presente. De manera que es la inteligencia y comprensión humana la que hace esa transformación evocativa de convertir el significante en un nuevo  conocimiento. Podemos decir que el símbolo es un vehículo para la comprensión, y no una prueba empírica para la demostración.

Con la ayuda del símbolo, satisfacemos nuestra necesidad de visualizar y comunicar conceptos abstractos. Esto es así desde los orígenes del hombre, ya en la prehistoria con las pinturas rupestres. El símbolo se ha usado como elemento vertebreador de la historia de un clan o comunidad. El origen de los primeros símbolos están relacionados con la aparición del lenguaje, y las narrativas de los primeros clanes de cazadores/recolectores. El símbolo entonces es previo a la aparición de la escritura, y posterior a la aparición del lenguaje. Viaja con la comunidad y se transmite entre generaciones, porque permite al hombre conectar con el pasado. Y también viaja entre culturas, porque permite compartir conceptos abstractos.

Innovación en Google Images

Innovación en Google Images

Con el paso del tiempo, el lenguaje simbólico se incorpora a la cultura y la religión, y en la medida en que se fueron consolidando las civilizaciones, pasa a la arquitectura, a la alfarería, al arte y la filosofía. Esto es así porque el lenguaje simbólico es apropiado para expresar ideas, conceptos y realidades generalmente trascendentes.

¿Cómo se crean los símbolos?

La creación de símbolos es un proceso exclusivo del hombre como animal simbólico, puesto que tanto para la creación del símbolo, como para su entendimiento, es necesario reflexionar, asignar, asimilar y profundizar. Con este proceso, el ser humano se mueve desde lo concreto y objetivo, al abstracto subjetivo e interpretable. Es necesario por tanto una vivencia interior. Hoy en día todas las disciplinas que se centran en el conocimiento y la cultura utilizan símbolos, entre ellas, como no, la innovación.

En este sentido, el símbolo tiene una función de puente, entre una realidad y su significado trascendente. Sin embargo, partiendo de una misma realidad objetiva, el símbolo ofrece diferentes interpretaciones según el contexto e interés que el sujeto le atribuye, o el grupo o colectivo al que pertenece. Para Platón, el símbolo conecta con una realidad más elevada, con el mundo de las «ideas» que desarrolla en La República y Fedón. Los significantes son percibidos por los sentidos en el mundo «real», el concepto al que nos trasladan es un «universal» del mundo de las «ideas». Para Kant, un símbolo es una intuición que, a través la analogía, permite a la razón conceptualizar una idea.

Para ambos, el símbolo es la representación de un concepto ausente, porque el concepto no está de manera evidente en el significante.

El significante no sólo no está presente en el símbolo, sino que el concepto existe de manera independiente al significante. No necesariamente antes, pero sí independiente. Si quisiéramos hablar en términos temporales, diremos que primero alguien tiene la necesidad de expresar un concepto o valor; después se establece la asociación con un objeto significante; a continuación una persona acepta la equivalencia entre significante y significado; y finalmente se hace la aceptación por un colectivo.

El diseño de símbolos, iconos y memes

En el caso de un icono, se considera que es un símbolo en el que el significado sí está visible en el significante, porque hay una relación de identidad o semejanza. Utilizar un candado para representar el concepto de «seguridad» es una relación icónica porque los candados en sí mismos sirven para proteger las puertas, las cajas o las bicicletas. Sin embargo, esa relación no está presente de manera directa en los candados que las parejas ponen para expresar su amor. Ahí dejan de representar «seguridad» para representar «unión». Los enamorados están unidos mientras el candado esté cerrado, o hasta que los equipos de limpieza de las ciudades llegan con unas cizallas y los cortan.

Innovación en Flaticon

Iconos de la innovación en Flaticon

En cuanto a los memes, se acepta que son una representación simbólica en la que una imagen se utiliza en un sentido diferente al que originalmente tenía. Pero al igual que en el icono, el sentido está presente por semejanza en el propio símbolo y por eso se utiliza. El Grumpy Cat es sólo un gato, pero tiene cara de gruñón. Fry dando billetes está dando billetes. Y el clon de Eddie Murphy, tocándose la frente con una ceja enarcada, está pensando que es ingenioso.

Aunque hay consenso en que los símbolos se crean de forma más o menos inconsciente (aquí entran los trabajos de Freud, que no vienen al caso), el trabajo de diseño visual tiene una importante componente de creación intencionada de símbolos e iconos, con un sentido de utilitarismo y ayuda. El «corazón» de Instagram se usa para decir que algo te gusta, el avión de papel que vuela a su destino de Telegram, o los emojis de la berenjena y el melocotón, sin ir más lejos. En cuanto a los memes, diría que la intencionalidad se origina en la ironía y desde ahí viaja hacia la burla, el trolleo y general el mal, que nunca descansa.

En cualquier caso, los diseñadores de símbolos lo hacen de forma consciente, premeditada, y a ser posible, remunerada. Diremos que en cualquier caso, es un proceso creativo y eso ocurre en la psique, a través de la inteligencia, las emociones, la imaginación, y sobre todo, el entendimiento contextual del creador. Porque, a priori, un significante puede abrir una variedad infinita de significados, tantos como personas pueden enfrentarse a él y asociarle uno. Es decir, la asociación entre significante y significado a través del símbolo primero es creada con mayor o menor propósito, y luego es aceptada. Inicialmente, por la propia persona que establece un sentido a dicho símbolo. El creador tiene que aceptar ese sentido. Y después difundirlo.

La aceptación del significado simbólico

Es gracias a la difusión como esa nueva estructura conceptual puede ser aceptada por un colectivo. Parece por tanto que la creación puede ser consciente o inconsciente, pero diría que la aceptación por un colectivo es consciente. Esa aceptación es la que hace que muchas personas reconozcan como válidos uno de todos los posibles sentidos. Es decir, puede darse la situación de que haya una minoría de personas que piensen que el emoji del «melocotón» representa un culito respingón, cuando todo el mundo sabe que es una de las frutas más sabrosas del verano.

Así que para la difusión es necesaria una acción de comunicación, que hace que el símbolo pase de ser un puente entre un objeto real y un concepto trascendente personal, a algo compartido y tal vez identitario de un grupo de personas. Que atribuyen al mismo objeto real el mismo concepto transcendente. Y para que se asiente, además de difundirse tiene que repetirse. Lo potente del meme es que su aceptación es rápida y masiva porque se viraliza a través de las redes sociales. A los tuiteros les hace gracia, y lo comparten, y si lo reutilizan es porque lo aceptan.

Pero el proceso de aceptación tradicional de un símbolo antes de los medios y las redes sociales ha sido más lento. El significante permanece inalterable, la Cruz siempre es la cruz, y es a través de la repetición cómo el significado también llega a permanecer inalterable en la comunidad, la Resurrección es la Cruz. Por eso surgen los rituales, como la serie de acciones ceremoniales en las que un colectivo comparte y consolida la aceptación del significado de un símbolo. En un ritual religioso Católico, por ejemplo, se acepta que el Pan y el Vino se convierten en el Cuerpo y la Sangre de Jesucristo.

Parece claro entonces que a la hora de estudiar un símbolo, es necesario conocer el contexto cultural y social en el que se surge y se acepta por el colectivo. Al fin y al cabo, una cultura, no sólo social o política, también puede ser una cultura corporativa, contiene entre otras cosas su sistema de símbolos y contextos compartidos. A través del estudio del símbolo podemos acceder a ese contexto, y tratar de comprender en qué condiciones y por qué se creó.

Aceptamos bombilla como animal de compañía

Los ingleses llamaron Enlightenment («iluminación») a lo que nosotros llamamos «Ilustración», el movimiento que surge en Europa en los siglos XVII y XVIII en los que la razón y la ciencia se anteponen a la superstición y la fe. En la «Ilustración» se establece una relación metafórica (pero no simbólica) entre la ciencia «que ilumina» frente a la superstición/religición que «oscurecen» el conocimiento.

En octubre de 1879, Edison, a partir de sus trabajos previos con Swan, demostró la capacidad de generar luz con energía eléctrica usando una bombilla de filamento de carbono, que habilitaba su fabricación y distribución masiva. Consiguió la patente en enero del año siguiente. Hay imágenes de la época en las que aparecía el inventor estadounidense posando con su obra. Tenía una bombilla en la mano.

Edison y la Bombilla

Extracto del perfil de Edison en LinkedIn

La bombilla era una invención para iluminar, algo que ya se había hecho con antorchas, candiles y la lámpara de gas. En este caso, hay una traslación directa de significado implícito y demostrativo: la bombilla ilumina porque es su propósito. Sin embargo, la bombilla es en sí misma una invención, un descubrimiento científico, y por ende, ya existía un contexto previo que considera la iluminación (Enlightenment) como el triunfo de la razón sobre la superstición a través de las invenciones y las ideas. De manera que al significante bombilla se le asocia casi de manera directa y racional el sentido de la invención. Falta la parte de la difusión del símbolo.

El 16 de Agosto 1935 Paramout Pictures emitió un episodio de Betty Boop llamado «Betty Boop and Grampy». Betty recibe una invitación para ir a una fiesta en casa de Grampy, y se lleva con ella a todos los personajes del barrio (operarios, bomberos, policías… una juerga) Grampy es el arquetipo de viejo inventor chiflado de los dibujos animados: tiene un reloj de cuco con guantes de boxeo para despertarse, una mano mecánica que saluda a sus invitados y un paraguas sin tela que corta tartas en porciones perfectas. Esa clase de inventos.

En un momento dado, Betty le pide a Grampy que ponga algo de música, cosa que el hombre no tenía previsto. Lo que no dejar de ser sorprendente, porque sí tenía una lámpara de techo llena de ponche. Entonces Grampy saca del bolsillo un birrete de licenciado con una bombilla en todo lo alto. Se pone su gorro de pensar, se sienta en una silla y de repente ¡zas!, la bombilla se enciende y pita porque tiene una idea.

La bombilla de Grampy

El bueno de Grampy ha tenido una idea

En este punto, los guionistas del episodio, atribuyen conscientemente a la bombilla que ilumina un nuevo sentido, la bombilla se enciende cuando se tiene una idea; no una cualquiera, esa que resuelve un problema. Estableciendo el vínculo con la ideación y el momento «¡eureka!» que gritaba Arquímedes cuando salió corriendo desnudo de la bañera. No os vayáis a creer que pone un disco en un gramófono: inventa un robot que toca la flauta con una tetera, un ventilador y unos guantes. En ese corto de animación hay un momento en que se propone un símbolo, que es aceptado por el director del episodio, Dave Fleischer y el director de animación, Dave Tendlar. Parece que ambos ven claro que el público aceptará el simbolismo, y deciden sacar a producción el episodio.

Pocos años antes de eso, en los 20, los animadores de Felix the Cat habían incorporado otro simbolismo. Como sus cortos de animación eran mudos, dibujaban signos encima de la cabeza de sus personajes para expresar situaciones. Es un metasímbolo, por así decirlo. Un signo encima de una cabeza como expresión de las emociones, ¿cuáles? Eso ya depende del signo. En el primer corto, «Felines Follies», se usan símbolos de exclamación y duda sobre las cabezas; y en posteriores episodios, el gato interactúa con esos símbolos. En «Wrecking a Romeo», Félix utiliza uno de los corazones que proyecta sobre su cabeza como expresión de amor, para construirse un laúd con el que rondar a su Julieta.

Más allá de del debate de si podemos considerar la idea de ir al cine o ver la televisión un ritual, esos dibujos animados ayudaron a difundir el símbolo sobre la cabeza como expresión de pensamientos: la exclamación como «alerta», el interrogante como «duda» y la «bombilla» como momento ¡eureka! de la ideación.

A ver si se funde ya la bombillita…

Al fin y al cabo, un símbolo se mantiene vivo mientras constituye la mejor expresión de un concepto o idea, es decir, cuando mantiene su significado trascendente. Un mismo concepto puede expresarse a través de varios significantes, y a la vez, un mismo objeto puede significar cosas diferentes para diferentes colectivos. En el momento en que surge otra equivalencia mejor, el significado desaparece. O es sustituido, siempre en la medida que a un significante se le asocia a un nuevo significado, y el colectivo lo acepta y perpetúa.

Paradójicamente, una de las características de los memes es que, además de nacer y aceptarse de forma rápida, también desaparecen y son sustituidos a toda velocidad de manera constante, cuando se viraliza una nueva forma de representar la idea.

Sin embargo, no hay que perder de vista que el significante, como objeto o representación preexistente, tiene su propio significado inherente, que no desaparece cuando desaparece su carga simbólica. Si algún día nos hartamos de usar la bombilla para representar la innovación, no dejará de representar la iluminación, porque es su propósito primigéneo.

Lo que pasa es que 100 años después, no hemos encontrado una representación simbólica mejor para la innovación; sigue asociada al significante bombilla. No hay más que buscar en catálogos de iconos o librerías de imágenes para verlo, como en las imágenes anteriores en el post. Cuando alguien hace un ejercicio de visual thinking, una presentación de powepoint, diseña una web, etiqueta una librería de imágenes o prepara un post, el significante bombilla es el primero que se usa para referirse a la innovación.

Hay otros símbolos usados en los contextos de la innovación, que podéis ver en las capturas de pantalla, por ejemplo:

  • el cohete, que se asocia principalmente la superación y el éxito. Es una conceptualización por tanto del resultado, un proceso de innovación exitoso es aquél que da un buen resultado. Hay un sentido que aparece directamente en el propio cohete que es la velocidad o la potencia: el cohete, para lograr salir a la atmósfera y escapar del campo gravitacional de la Tierra, necesita ser capaz de propulsarse a gran velocidad. Trasladar ese concepto a una idea o a un negocio le imprime un carácter de nuevo de éxito: ese negocio va como un cohete porque está consiguiendo sus objetivos (de captación de usuarios, de ingresos, etc.)
  • las ruedas dentadas de los engranajes, que se asocian con los procesos y las metodologías. A través de los dientes, las ruedas transmiten el movimiento unas a otras, de la misma forma que en un proceso unos pasos preceden a otros.
  • y el cerebro, que se asocia con la imaginación y la creatividad. Es natural usar el cerebro como significante si aceptamos que «innovación es el uso de la creatividad para resolver un problema existente, de una manera que nunca se había hecho antes».

Mi última reflexión es si tiene sentido tratar de cambiar arbitrariamente el significante de un símbolo. Es decir, que alguien considere que está harto de usar bombillas para representar la innovación y que quiere, por ejemplo, usar un melocotón. Más allá de lo apropiada que sea la adopción de ese significante, el esfuerzo de comunicar y sustituir un símbolo tan ampliamente aceptado diría que no merece mucho la pena.

Cómo diseñar Futuros Antifrágiles

(Tiempo de lectura: 22 minutos y medio. Ya te digo)

Este es el tercer artículo que escribo sobre el tema de los Futuros Antifrágiles. Si no estás familiarizado con el concepto de la Antifragilidad, o por qué me resulta interesante incorporarlo en la teoría de Diseño Especultativo de Futuros, te invito a que te leas los anteriores posts de esta trilogía: el primero y el segundo.

En ellos he intentado recoger por una parte, por qué el diseño de futuros es una disciplina necesaria en el proceso de innovación, sobre todo, de las grandes corporaciones. Mi experiencia me dice que las nuevas ideas y los nuevos modelos de negocio, necesitan de 3 a 5 años para sobrevivir, y de 5 a 10 para volverse relevantes. Es decir que hoy estamos creando el germen de algo, un nuevo producto o modelo de negocio, que será será relevante en el futuro. Eso introduce la otra idea, si nuestra innovación ocurrirá en el futuro, deberíamos pensar cómo va a ser ese futuro. ¿Y qué sabemos del futuro? Pues esa es la primera conclusión que me gustaría compartir con mi trilogía de los Futuros Antifrágiles:

Sólo hay dos cosas ciertas sobre el futuro: no podemos predecirlo, y habrá nuevas crisis.

Diría que es normal tratar de predecir el futuro, y ya puestos, compartir con otros tus predicciones. Incluso cobrar por ello. Al fin y al cabo, el ser humano lleva haciéndolo desde que dejamos de ser primates, nos asentamos en poblados, la cosa empezó a prosperar, y entonces apareció gente (habitualmente, vieja, osea, sabia) con imaginación y tiempo libre para mirar las estrellas (o las vísceras).

Un día se me ocurrió rastrear las primeras predicciones escritas: en la Biblia tenemos unos cuantos libros de los Profetas, sin embargo están escritos en tercera persona. Es decir, un cronista cuenta las profecías de Isaías, Jeremías, etc. Pero no están escritas en primera persona, o sea, por el propio Profeta narrando su visión. Yo en mis conferencias me la juego y digo que la primera visión del futuro que tenemos por escrito, recogida por el que la tuvo, es el Libro de las Revelaciones, del Apóstol San Juan. Se cree que es del año 95. Ojalá nadie venga a contradecirme. Coincidiréis conmigo que, como idea, ligar el diseño de futuros al Apocalipsis es algo muy romántico. Todos sabemos que el futuro que diseñó ese hombre incluye cosas como el Número de la Bestia, los Cuatro Jinetes, la Prostituta de Babilonia, siete coronas sobre siete cabezas, fuego y azufre a partes iguales, etc.

2000 años después, los que trabajamos en tecnología nos vemos atrapados durante los meses de diciembre a enero, absorbidos por la “publicación de las predicciones de los analistas”. Titulares del tipo “las tendencias del año 202X” o “en el año 202X las empresas gastarán XYZ miles de millones en tal cosa”. Lo peor de estas predicciones es que las hacen empresas serias, a partir de encuestas e investigación de mercados. Y otras empresas las usan para tomar decisiones, o lo que es más grave, para justificar sus decisiones. Por ejemplo, el tema de la VR. He encontrado algunos titulares que me resultan muy graciosos, porque demuestran claramente los pasos del modelo de Hype de Garner. De hecho, se ve cómo la gente se va desperando.

Hype cycle for VR

El Hype Cycle de la Realidad Virtual

No deja de ser curioso que se vayan frustrando los periodistas, cuando la mayor parte del tiempo ellos mismos alimentan el hype. Imagino que eso es lo que les da rabia, haber fallado en sus predicciones. Un poco más adelante retomaré el modelo del Hype, y otro día si eso hablaremos de los periodistas. 

En fin, una vez que aceptamos la premisa de que es imposible predecir el futuro, tenemos que aceptar que realmente no queremos hacerlo, porque aquellos que viven de predecir el futuro son frágiles si no aciertan con sus predicciones (volveremos a este punto más adelante). Entonces ¿qué hacemos aquí hablando de diseñarlo? 

Bueno, es que predecir no es lo mismo que diseñar. El segundo punto importante en esta línea de artículos, tiene que ver con el lugar que para mí ocupa la teoría de diseño de futuros en el campo de la innovación:

Podemos seguir una aproximación metodológica y formal al diseño del futuro que queremos. Y luego tratar de que se cumpla a través de proyectos de innovación.

Que en fin, se cumplirá o no, pero al menos lo hemos intentado, como diría Jack Nicholson volando sobre el nido del cuco. Como investigadores, buscaremos las evidencias y las oportunidades, como diseñadores crearemos esa visión relevante, y como innovadores y desarrolladores, trataremos de conseguir que ocurra. Es una mezcla entre “hacer trampas en el solitario” y “profecías autocomplidas”.

¿Cómo se diseña el futuro?

Desde que en el año 2003 el Design Council publicó el modelo de doble diamante, sabemos que hay un marco conceptual universal para definir un proceso de diseño. Es ampliamente utilizado en el mundo de la experiencia de usuario (cosa normal por otra parte), también en ideación,innovación, y cómo no, se usa también en el diseño de Futuros.

Double Diamond model for futures design

El modelo de Doble Diamante aplicado al Diseño de Futuros

La teoría lo que dice es a priori sencillo:

  1. en la etapa de “discovery”, que es donde habitualmente se hace el research, el equipo busca “señales”. Una buena definición de “señal” es: un ejemplo del futuro en el presente. Algo que está ocurriendo ahora, que identificamos que puede ser relevante dentro de unos años por el impacto que puede tener. Por ejemplo, yo tengo una señal que es una foto que hice en el año 2016 a un cartel en la puerta de un pub en Edimburgo que decía “no hay Wifi, hablad entre vosotros y emborracharos”. ¿Por qué me parece relevante? Porque recuerdo que el año 2004, Starbucks empezó a desplegar la WiFi gratis para clientes como parte de su “experiencia” y “propuesta de valor diferencial”. Sin embargo, en 2016, veo un local que construye una propuesta de valor diferencial sobre la idea de la desconexión y el contacto personal. Y emborracharse. Desde este blog recomendamos beber con moderación y responsabilidad.
  2. luego, en la etapa de “define”, se hace una convergencia para encontrar cómo esas señales podrían formar parte de una “tendencia”. Podemos decir que una tendencia es algo más que una colección de señales relacionadas, una tendencia es algo que ya está ocurriendo, una corriente de cambio en marcha que nos lleva de una situación origen a una nueva situación. Por ejemplo, que las grandes cadenas multinacionales de comida rápida (McDonald’s, Burger King, KFC) tengan platos (o adaptaciones de sus platos) veganos representa una tendencia. Puede deberse a muchos motivos, desde cambios en el estilo de vida, alimentación saludable, concienciación con la sostenibilidad, oposición al modelo de explotación ganadera para el consumo de carne, preocupación por el medioambiente, etc. 
  3. después, en el siguiente paso divergente de “develop” se crean “escenarios” a partir de la tendencia que se ha identificado. Un escenario será una descripción, más o menos detallada, de una realidad en la que nos podríamos encontrar viviendo algún día. Una manera de generar posibles escenarios a partir de tendencias es seguir el modelo de 4 futuros de Jim Dator, que invita a pensar qué pasaría en situaciones de:
    • crecimiento, donde todo va en la misma dirección, cada vez mejor y más grande.
    • hundimiento, al contrario que lo anterior, todo va terriblemente mal y las cosas se vienen abajo.
    • adaptación, cuando surgen nuevos problemas o restricciones que limitan el escenario de crecimiento.
    • y transformación, que es el contrario del anterior, algo que era un problema deja de serlo, y habilita nuevas posibilidades.
  4. y por último, durante en la etapa de “delivery” se crean “artefactos del futuro”. Una representación física y tangible de algo que podría existir en ese futuro, que nos ayuda a ambientarnos, a entender y a explorar las implicaciones.
A signal and a trend

Una señal y una tendencia

A partir de ahí, hay muchos motivos para poner en práctica el diseño de escenarios futuros; en mi caso me interesa aplicarlo en el ejercicio de plantear un modelo de innovación que tiene que arrancar hoy, y crecer hasta el momento de su madurez, que ocurrirá en ese escenario futuro que hemos diseñado.

Hasta ahora todo correcto, entonces, ¿cómo se incorpora la Antifragilidad? Si os parece, primero vamos a ver cuáles son las características que nos permiten hacer una aproximación de diseño a la antifragilidad.

¿Cómo se diseña un Sistema Antifrágil?

Bien, ya hemos comentado anteriormente que en un sistema o modelo frágil, los beneficios potenciales están acotados, permanecen mientras todo se mantiene estable y bajo control. Sin embargo, las pérdidas son exponenciales cuando llega la crisis. Los modelos resilientes, están hechos para permanecer constantes durante una situación de crisis, diría que tienen beneficios acotados y pérdidas acotadas. Por lo visto, la primera vez que se recoge por escrito el concepto de “failover” es en un memorando del programa Mercury-Atlas de la NASA (misiones tripuladas en órbita terrestre), del año 1962. Osea que parece bastante claro que estamos acostumbrados al diseño resiliente, eso ya no hay que explicarlo. Finalmente, los sistemas antifrágiles mejoran cuando son sometidos a estrés y tensión, algo que ocurre en una crisis; y lo único cierto que sabemos del futuro, es que habrá otra crisis. 

Algunos ejemplos de diseño antifrágilles:

  • Como ejemplo de tecnología antifrágil, se me ocurre el tema de las redes de intercambio P2P, que funcionan mejor cuantos más usuarios se conectan y más peticiones de descarga reciben. A mayor número de usuarios que “comparten” e “intercambian”, mejor funciona la red. Sin embargo, los archivos que se quedan listados pero que a penas se comparten suelen tener peor rendimiento pero acaban por bajar (salvo que nadie los comparta, y se queden las típicas secciones que nunca terminan de compartirse). Es un ejemplo de que a mayor volatilidad, mejores beneficios, y con la estabilidad, pérdidas acotadas.
  • Como ejemplo de modelo de negocio, el de la cyberseguridad, donde las empresas mejoran sus capacidades y son más competitivas cuantos más ataques son capaces de detener, cuantas más vulnerabilidades se descubren y cuanto mejor son los delincuentes. Si dejase de haber ataques o de publicarse vulnerabilidades, estas empresas desaparecerían. Aunque no creo que haya alguien previendo que en el futuro vaya a dejar de haber delincuentes, pero bueno.
  • Y como ejemplo de sistema antifrágil, el de las organizaciones de voluntariado; cuanto mayor es el número de personas en situación de necesidad por catástrofes naturales, crisis humanitarias, guerras, hambrunas, etc, mayor es el número de organizaciones y personas que se organizan para ayudar, y el dinero recaudado para que logren sus actividades. 

Por tanto, si me preguntáis a mí, yo preferiría diseñar sistemas antifrágiles, personalmente invertiría mi dinero en sitios que puedan suponer pérdidas acotadas y beneficios exponenciales. Y como en el futuro va a haber crisis…

Si la innovación que diseñamos hoy va a ser relevante en el futuro, y lo único que sabemos del futuro es que habrá más crisis, me parece interesante diseñar pensando en mejorar con las crisis.

La imagen de la Hidra de Lerna recopila las características de un sistema o modelo Antifrágil, tal y como lo define a lo largo del libro Taleb.

Hail Hydra

Hail Hydra

Repasemos los términos, al menos mi concepción de los mismos:

  • descentralizado. Es decir, no hay un único punto de toma de decisión, sino que las decisiones se toman en diferentes nodos.
  • distribuido. No es lo mismo descentralizado que distribuido. En un sistema distribuido, los elementos (sean o no de toma de decisión) están en diferentes ubicaciones.
  • autónomo. Entendido como la capacidad de las partes de tomar decisiones por sí mismas sin consultar al resto.
  • redundante. Porque hay más de un elemento que realiza la misma función. De manera que si uno fallase o dejase de estar disponible, otro pudiera asumir sus tareas.
  • ágil. Entendido como que es capaz de dar una respuesta, o tomar una decisión, de forma rápida.
  • flexible. Es decir, capaz de adaptarse a nuevas situaciones y escenarios imprevistos.

Hasta ahora hemos visto características que habitualmente se asocian a sistemas resilientes, y que a la larga, les dan la habilidad de tolerar el fallo o la sobrecarga de alguna de sus partes. Los que trabajamos en el mundo de la tecnología estamos muy habituados a este tipo de sistemas. Quizá las dos últimas características son tal vez, las que para mí me resultan las más relevantes en la búsqueda de la Antifragilidad:

  • necesitan estar sometidos a tensión. Está preparado para un entorno variable y cambiante, vamos, lo contrario de un laboratorio. 
  • tiene un propósito que permanece en el tiempo. Esta es para mí una de las ideas principales; y con las que más colisiona la teoría de la innovación disruptiva que veo a mi alrededor. Lo que me lleva a la siguiente conclusión que quiero compartir.

Las cosas que llevan decenas, o centenares, o miles de años funcionando tienen dos cualidades: uno, resuelven un problema de manera satisfactoria y dos, han ido sobreviviendo y mejorando tras varias crisis. Pues quizá estén bien pensadas y haya que respetarlas.

Creo que este es uno de los principios más interesante de todos, quizá el más ignorado y denostado por las personas que trabajan en innovación; y que requiere un verdadero esfuerzo para cambiar el mindset.

Lee el Futuro en los posos del Hype

Lo de Keep It Simple, Stupid parece que a veces se nos olvida, y cuando nos ponemos a innovar nos dedicamos a buscar cómo meter en la solución nuevos juguetes, simplemente para jugar con ellos. Para ver que se puede. O para molar.

Y está genial, cuando el objetivo de la innovación es comprobar que algo puede hacerse, o molar. Yo defino innovar como «el uso de la creatividad para resolver un problema existente, de una manera que nunca se había hecho antes». En mi caso, el objetivo suele construir modelos, sistemas o soluciones que espero sobrevivan todo el proceso de inversión y crecimiento, hasta convertirse en una línea de ingresos relevante en el futuro. Lo de probar algo, o molar como objetivo no me llena 😦

Es curioso, porque cuando he comentado en algún proyecto o con algún cliente algo tipo “pues yo creo que no metería aquí una blockchain”, o “para esto la gamificación no tiene sentido”, o “esto no tiene nada que ver con el 5G” algunas personas me han dicho “tío, pareces el director de anti-innovación”. Y a mucha honra. 

Dejad que os cuente cómo leo yo lo del Hype Cycle de Gartner. Lo divido en tres cuadrantes. Al principio lo dividía en dos: en las cosas que generan frustración y las que no; pensando quizá de forma inocente, que trabajando en lo que trabajo, nadie contrata a alguien para hacer cosas que acaben haciéndole sentir frustrado. 

Understand Hype Cycle

La realidad supera la ficción, y a veces las expectativas

Pero últimamente he decidido meter una tercera casilla, la casilla de la muerte de la Oca. La de las cosas peligrosas porque automáticamente despiertan el deseo de generar “contenidos noticiables” o “media value”. Cosas que publicar en las redes sociales, en campañas en Facebook y que con un poco de suerte, te saque Matías Prats en el telediario, o Pablo Motos en el Hormiguero. Como si salir en el Hormiguero, con todos mis respetos, fuese un objetivo de negocio en sí mismo. Claro, cuando sales en el Hormiguero contando algo que en dos meses se despeña por el Abismo del Chasco, la frustración es doble. Primero, por la que define el propio Hype Cycle en sí mismo, y luego, porque has salido en público contándolo y has fracasado. Y en otros sitios no se, pero en España somos especialistas en machacar al que fracasa.

Cuando nos acercamos a la innovación disruptiva en las organizaciones, tenemos que ver el hype cicle de Gartner casi como una advertencia. Las tecnologías que uses van a moverse a lo largo de la curva de expectativas, ¿en qué punto estarán cuando se materialice tu futuro? Como protocolo, la blockchain es de 2008. Seguro que has leído “The Blockchain Revolution” de Don Tapscott. Se publicó en 2016. ¿En qué punto están todas esas ideas sobre cómo la blockchain iba a cambiarlo todo? Internet, los negocios, la economía, la seguridad jurídica, la prosperidad… Seguramente pienses que están despeñándose por el Abismo del Chasco (si no lo crees, si piensas que la blockchain está escalando la Colina de la Razón, escríbeme un tuit que ponga “Blockchain Revolution”, y empezamos un debate) 

La aproximación antifrágil al Hype Cycle consiste en pensar que las nuevas tecnologías, en su estado de inmadurez y poca implantación, pueden ser rápidamente reemplazadas por otras. Sin embargo, aquellas tecnologías que llevan con nosotros más tiempo seguramente seguirán estando. Estaban bien pensadas, porque nadie ha conseguido todavía dejarlas obsoletas

Lo que me lleva al ejemplo del papel. Pese al concepto del hypertexto y la navegación por internet en los 90, pese a los libros electrónicos, pese a la invención de la tinta electrónica en el año 2002, pese a la presentación del Kindle en el 2007 y del iPad en el 2010, en el año 2020 la facturación de libros en papel en España representa más del 84% del total, según los datos de la ONTSI.

Ventas de libros

Ventas de libros en el mundo. Fuente: Telos y ONTSI. Estudio anual del Sector de los Contenidos Digitales en España 2018

En Estados Unidos, por ejemplo, las ediciones en formato físico siguen representando el 70% del total de las ventas, frente al 17,8% de eBook y el 8,5% del audiolibro.

Osea, en tu futuro de dentro de 10 años, apuesta porque seguirá habiendo libros. ¿Cuál es el motivo? Está claro que no es por el contenido (el contenido es el mismo en ambos soportes) ni por el precio (habitualmente menor en digital). Debe ser algo relacionado con la experiencia y con los atributos de las cosas físicas: el modelo de lectura, el pasar una página, la sensación de propiedad de tu libro en una estantería, poder dejarlo a otra persona y trasferirle tus intereses, poder subrayarlo, tomar notas… incluso poder poner fotos en Instagram de lo profundas que son tus reflexiones.

¿Sabes qué más va a haber en tu futuro de dentro de 10 años? Bicicletas. A punta pala. Ya se que es más cool pintar escenarios de futuro donde la gente va a a la oficina en su coche volador, pero en serio. La obligación de la ciencia ficción es diseñar escenarios que nos resulten interesantes, divertidos, atractivos, fascinantes, aterradores… y que alguien pague por verlos o por leerlos. Y este post no va de eso, va de negocios, osea, de diseñar la mejor manera de gestionar una inversión para conseguir un retorno.

Flying cars vs More Bikes

Las bicicletas son para el futuro

Los Futuros Frágiles

Las características de un sistema antifrágil, nos permiten en cierta medida conocer las de un sistema frágil. En este caso, de un futuro frágil.

Una persona podría ver la señal de que Tesla tiene su propio seguro de auto para sus clientes, y unirlo a las tendencias de coches conectados, y los coches autónomos gracias a la inteligencia artificial, la blockchain y el 5G, y hacer un escenario futuro como el siguiente:

Dentro de 10 años, el negocio del seguro de automóviles será disrumpido por los fabricantes de coches. Se hará a través de una blockchain global gestionada por Ia IA de los vehículos autónomos, y sus conexiones IoT a través de 5G.” 

Para mí es un ejemplo de futuro frágil, tiene muchas probabilidades de no ocurrir y por tanto, quizá no sea lo mejor tomarlo como partida para hacer una inversión. Me atrevo a decir que el que tome una decisión de inversión sobre este escenario palma pasta. Sin embargo, tal y como está escrito, genera cierta aceptación, más de la mitad de los encuestados creen que esto va a ocurrir, y la tercera parte incluso quiere hacer que ocurra. Es cierto que la encuesta sólo tiene 79 votos. En lugar de quejarte, la próxima vez que veas una encuesta mía, vota y comparte 😉

Encuesta

En mi caso, yo voté que no va a ocurrir. Reconozco que mi encuesta estaba sesgada, para influir en que la gente votase a favor. ¿Por qué lo hice? ¿Porque soy un troll irredento? Podría, pero no. La he escrito de la forma en que vemos habitualmente las predicciones de empresas tipo Gartner, Forrester o IDC. Esas que otros usan para justificar sus decisiones 😦

¿Y por qué creo que es una predicción frágil?

Analicemos la respuesta. Puede que este escenario sea distribuido, porque no dice qué fabricante de automóviles lo va a hacer, y además es redundante, porque asume que varios fabricantes a la vez pueden trabajar en esta misma línea. Incluso podremos decir que es autónomo, porque asume que las diferentes tecnologías en las que se sustenta esta predicción irán evolucionando cada una por su lado. Eso está bien.

Sin embargo, no es flexible. En la propia predicción está escrito quién va a hacerlo, qué va a hacer, y cómo se va a hacer. ¿Qué necesidad hay de entrar en ese detalle? En realidad ninguna, salvo que lo que se pretenda sea generar interés o expectación sobre esas tecnologías. Y sobre todo, olvida varios hechos fundamentales: 

  • Es cierto que asume que el concepto de seguro va a seguir existiendo dentro 10 años. Es decir, respeta el concepto de que la gente paga a otros por traspasarles el riesgo sobre un bien, desde la época de los babilonios. Sin embargo, olvida que las compañías aseguradoras existen desde el siglo XIV. Eso significa que no se van a quedar mirando cómo alguien les quita el negocio. Puede que Netflix acabase con Blockbuster, pero no acabó con el alquiler de películas. 
  • No incorpora los riesgos inherentes a los dispositivos conectados, como puede ser los errores en el software, la necesidad de mantener los sistemas actualizados, o el riesgo de hackeo, algo que no suele estar contemplado en las coberturas y primas de vehículos tradicionales; y que es precisamente lo que puede dotar de variabilidad y personalización a la oferta y al cálculo de las primas para evitar esa disrupción.
  • Y tampoco respeta la volatilidad de aquellas tecnologías que no están consolidadas y por tanto tienden a ser reemplazadas rápidamente por otras, todavía no sabemos cuáles.

Por tanto, obvia dos de las principales características de la antifragilidad: estar preparado para la tensión y respetar ese propósito subyacente largo en el tiempo.

Con esas mismas señales, y tendencias, tomando en cuenta estos últimos puntos, y añadiendo sobre la marcha que el negocio de las aseguradoras por desgracia sigue basándose en la competencia en precio, a mí me gusta más esta propuesta de futuro.

”Dentro de 10 años, la competencia para captar clientes en el negocio del seguro de coches girará en torno al vehículo autónomo, y supondrá una oportunidad para que otras empresas (como fabricantes o grandes gigantes del software) entren a competir en ese sector, y para que los incumbentes construyan una nueva propuesta de valor diferencial.”

Este forecast permite construir escenarios mucho más abiertos, innovar desde diferentes visiones (no sólo tecnológicas, también de la diversidad de la industria), y explorar “hoy” modelos de negocio o soluciones que puedan ser realmente relevantes en el “futuro”. O incluso esta otra, que me gusta más:

”Dentro de 10 años existirá un nuevo ramo de seguro, donde el asegurador cubrirá al asegurado de los daños causados por algoritmos, y supondrá una oportunidad para que otras empresas entren a competir en el sector, y para que los incumbentes construyan una nueva propuesta de valor diferencial.” 

Me gusta porque es todavía más antifrágil, puesto que amplía la tendencia de que cada vez hay más algoritmos que regulan nuestra vida (desde los que nos dejan acceder a un préstamo o a una universidad, a los que conducen nuestros coches), y sigue respetando dos conceptos universales: hay gente que paga a otros por cubrir su riesgo (pero no establece a quién), y el software y los algoritmos fallan (verdad universal donde las haya).

Cómo diseñar Futuros Antifrágiles

Para terminar este post, quería compartir algunas de las claves a tener en cuenta durante el proceso de diseño, a modo de tips o consejos, y que son las que yo uso. Son 6, y aplican en diferentes puntos del proceso de diseño.

  1. Durante la fase de investigación invierte también recursos en buscar las ideas / necesidades / soluciones / modelos que han perdurado durante el tiempo. Son aquellos que han pasado por varias crisis y es de suponer que podrían sobrevivir a la siguiente. En lugar de intentar reemplazarlos, una vez identificados considera la opción de construir sobre ellos.
  2. Cuando estés diseñando tu solución intenta identificar aquellos aspectos o elementos frágiles del contexto actual del problema, y que por tanto podrían no perdurar en el tiempo. Aprovecha que estás planteando una nueva solución para reemplazarlos por nuevos elementos que sí cumplan los criterios de antifragilidad.
  3. En el caso de que estés diseñando una solución técnica, evita usar tu sesgo de confirmación para incluir tecnologías modernas simplemente por el hecho de serlo. Lo más seguro es que las tecnologías que no han alcanzado su nivel de madurez sean sustituidas por otras, o acaben por ser descontinuadas. En lugar de eso, utiliza tecnologías maduras que hayan sido ampliamente usadas y por tanto, optimizadas.
  4. Aunque siempre es necesario definir las hipótesis sobre las que se sustenta tu solución y los KPIs que permitan saber si se están cumpliendo, tenemos que considerar que nuestro sistema no está cerrado. Al contrario, tenemos que estar abiertos a revisar e incorporar nuevas hipótesis con el tiempo, y por tanto, a revisar e incorporar nuevos indicadores.
  5. Durante la fase de validación de nuestra solución, debemos evitar caer en la falacia de los entornos excesivamente controlados. Es cierto que una aproximación “Friends & Family” a la validación permite probar en un contexto de confianza, donde detectar posibles errores e ineficiencias sin impacto por ejemplo en la marca o en el negocio. Aunque es posible que un entorno de laboratorio sea útil para esta clase de lanzamientos controlados, la estrategia de validación no tiene por qué serlo. La aproximación en este caso sería ser cauteloso con el contexto, pero arriesgado con la estrategia de validación. Es decir, validar el funcionamiento límite del sistema en un entorno de laboratorio, en lugar de validar el happy path del sistema en un entorno de laboratorio.
  6. Cuando estés analizando los resultados en la etapa de aprendizaje, no asumas que eres capaz de identificar lo que ha funcionado; que es la aproximación más habitual. En lugar de ello, sigue la aproximación lean, o como la llama Taleb, la via negativa. Es decir, detecta y elimina aquello que puedas demostrar con certeza que ha fracasado, haciendo tu solución más sencilla. Y acepta que el resto ha funcionado porque era bueno resolviendo algún propósito, aunque quizá no sepas exactamente cuál. 

Finalmente, no olvides hacer la prueba del 9, en este caso la prueba del 8. Comprueba si tu sistema o predicción tiene los 8 atributos que determinan la antifragilidad, y que recoge la imagen de la Hidra.

Epílogo

Pues hasta aquí. Siento que este último post se me haya vuelto a ir de las manos. Tenía el tema de la extensión muy controlado, y he vuelto otra vez a los post de más de 4500 palabras 😦

Al menos, espero que te haya parecido un concepto interesante. Me ha llevado meses desarrollarlo y sobre todo, ponerlo por escrito. He tenido la ocasión de hablar de esto en varias conferencias y clases en escuelas de negocio en lo que va de año, y lo veo con madurez suficiente como para compartirlo.

De todas maneras, tus dudas, comentarios y sugerencias me ayudan a refinarlo. ¡Gracias!

Gorriones, bicicletas y la nuevanormalidad

Tiempo de lectura: 10 minutos

De verdad que me resulta fascinante el nivel de incertidumbre y sobre todo, de fragilidad, que hemos tenido que padecer estos días de confinamiento. No me refiero a la fragilidad del ser humano, vulnerable contra un pequeño virus, sino a la fragilidad de las predicciones de expertos y analistas, que nos tienen todo el día machacados con lo de la «nueva normalidad».

Por favor: la nuevanormalidad es la misma de antes, pero con mascarilla (algo que seguramente en Agosto con el calorazo, los españoles volveremos a ver como una excentricidad). Bueno, la misma de antes solo que con un 30% de paro, eso sí que va a ser un drama. Esa sí que va a ser la nuevanormalidad: tiendas cerradas, gente haciendo cola para el reparto de comida, y personas en riesgo de quedarse fuera del mercado laboral 😦

Duelo a garrotazos nueva normalidad

«Duelo a garrotazos en la nueva normalidad» (Goya)

Muchas de las visiones que he estado leyendo pintan el Madrid nuevonormal como una ciudad de gorriones y bicicletas. Parece que se nos ha olvidado que, en Madrid, la calidad del aire ha mejorado porque nos han prohibido coger el coche, porque han cerrado los centros comerciales, tiendas, oficinas, bares y colegios. Confundimos el resultado con la señal. No ha habido ningún tipo de movimiento social de ciudadanos hartos que quieran acabar con el mal olor, el ruido, la boina que se ve desde Seseña, o tener basura en los pulmones. Ni un plan de acción global conjunta entre partidos políticos (gobierno y oposición municipal), grandes empresas, asociaciones de vecinos y de transporte de personas y mercancías. Nada de eso ha ocurrido, no ha habido nada que haya generado un cambio de tendencia.

Durante los dos meses que los humanos hemos estado confinados en casa, los animales se han movido libres por nuestras calles. Por eso el timeline de nuestro Instagram se ha inundado de fotos de flores entre el asfalto, pájaros, patos, gatos, incluso caballos. De nuevo, confundimos como señal de cambio algo que sólo representa la imposición.

Una tarde, a la hora de los aplausos, nos asomamos por la ventana y vimos a gente en bici por la calle, por cierto, hablando a gritos entre ellos (o quizá no a gritos, es que como no había tráfico, se les oía). Y confundimos el deporte y el fresquito de la tarde con la «nueva normalidad».

Madrid. Gorriones y bicicletas.

Supongo que deberíamos ver esta situación como una especie de MVP extremo, un test masivo de una nueva realidad. ¿Cómo serían nuestras ciudades con el mínimo número viable de coches alrededor? Sólo que si estamos haciendo un MVP, deberíamos tener claras las hipótesis que se están validando. En este caso, la hipótesis principal era la imposición. ¿Están los ciudadanos dispuestos a renunciar a sus derechos civiles para proteger su salud? Así que el Gobierno publicó el Real Decreto de Estado de Alarma, que recortaba drásticamente nuestros derechos para prevenir el contagio, y eso nos obligaba a quedarnos en casa. Eso es todo. Pero hemos caído en el error de proyectar las consecuencias de algo esporádico para convertirlo en lo nuevonormal.

Gorriones y bicicletas

Gorriones y bicicletas (SEO Birdlife)

Así que hemos caído en la fragilidad de pensar que el transporte público y la primaverita convertirían Madrid en un paraíso de aire puro, gorriones y ciclistas. Es una idea frágil porque se viene abajo en cuanto cambias la hipótesis.

Futuros Frágiles

En cuanto nos han dejado salir a la calle (la hipótesis de la imposición desaparece) las cosas han vuelo a la normalidad. Por no decir que han ido a peor. Permitid que os diga que la realidad, y sobre todo, la evidencia empírica, lo que nos dice es:

  • que en verano, en el cercanías, en el metro, en el autobús… que en cualquier forma de transporte público hace un calor que lo flipas. Obviamente, esto lo sabe la gente que lo usa. Pero da igual, el «desk research» es inmediato, basta conectarse a tuiter y leer las quejas de la gente que va por ahí sofocada y muerta de asco bajo el suelo. Pero los coches tienen aire acondicionado.
  • que durante el verano, la frecuencia del transporte público baja, porque se supone que la gente está de vacaciones y no tiene que ir a sus oficinas. Así que ¿cómo vamos a respetar la distancia social si hay menos vehículos, y por tanto, lo que se espera es que los usuarios se agrupen por lotes?
  • que con el coronavirus, el transporte público y el car-sharing y el taxi/uber/cabify son espacios percibidos potencialmente peligrosos por las personas que llevamos 3 meses oyendo hablar de muertos diarios. ¿Quién es la persona que va a mi lado? ¿Quién ha tocado esta barra? ¿Habrán tosido antes de abrir la puerta? Total, pánico. No tenéis más que ver la cantidad de campañas que machaconamente nos recuerdan que los limpian, fijan y dan esplendor todos los días. En algunos casos, incluso detallan los productos químicos que usan para limpiar, lo que me recuerda a esas campañas de márketing que te dicen que no se qué tiene «coencimina Q10» u «oxígeno activo». Términos pseudocientíficos pronunciados por gente bien peinada en bata blanca, que se usan para que el consumidor se quede más tranquilo. Total, no se puede ser más sospechoso.

En cambio, mi coche privado, que es mío, al que sólo se sube gente de mi confianza a la que se lo permito, es un espacio seguro donde tengo la sensación de que no me contagio. Y además voy con el aire acondicionado.

Polar bear

Los osos polares no sudan (GM Harrison air conditioning, años 50)

Así que aquí está la primera señal nuevonormal  de mi ciudad: durante la primera fase de la salida del confinamiento, el uso del vehículo privado llegó al nivel del 50% que había en febrero, antes de la cuarenta. Además, se detectó una transferencia del 13% de ciudadanos que dejaban de usar el transporte público y elegían el vehículo privado. Y el nivel de recuperación de uso del transporte público era más lento, tanto, que en fase 1 estaba a un 70% de los datos de febrero. Como país, un estudio durante la fase 2 de la desescalada demostró que a nivel global, España había recuperado un 80% el uso del vehículo privado, mientras que el público estaba en el 40%. Fuentes: elDiario.es and ElEspañol.es

En el Madrid nuevonormal la calidad del aire y los problemas de tráfico han mejorado, veremos menos coches privados en la calle gracias al incremento del uso del transporte público y de medios alternativos como la bicicleta. (Predicción Frágil)

¿Por qué alguien querría detectar la Fragilidad?

Sinceramente, es un trabajo difícil. Quiero decir, hacer research es sencillo, y tener ideas también. Una vez que sabes cómo crear la Propuesta de Valor para un usuario objetivo a partir de esas ideas, establecer algunas hipótesis para un modelo de negocio y dar el salto del powerpoint a un MVP desplegado en AWS está tirao. No me malinterpretéis, está tirao si tienes las competencias para hacerlo. Pero como digo, es la parte fácil, hasta ese punto llega todo el mundo. Lo difícil es cuando tienes que lanzar algo al mercado, y seguir invirtiendo dinero y tiempo para convertir un MVP en algo que alcanza el break even en 3 años. ¿Por qué 3 años?

EMT 36

El 36 conecta Atocha con Carabanchel (EMT de Madrid)

He tenido la oportunidad de hablar con muchos emprendedores que querían ser invertidos por Sngular en los últimos 10 años, y me he dado cuenta de que el business plan medio contempla el break even en el tercer año. Quizá el motivo es que más tiempo genera dudas en los inversores («¿es esto lo suficientemente bueno como para meter dinero ahí?»), y menos transmite demasiado optimismo («estos tíos no saben de lo que hablan»). Y esto no termina aquí. Si consigues hacer break even significa que estás preparado para seguir inviertiendo más dinero y más tiempo, para conseguir una línea relevante de ingresos.

¿Cuánto tiempo? ¡Vete a saber! ¿2 años?, ¿5?, ¿7?, ¿10 años? Echa un vistazo a los 4 ejemplos a continuación y dime de ellos cuál crees que representa una línea de ingresos relevantes para su compañía. ¿Crees que alguno necesita más inversión?

Creo que estaréis de acuerdo conmigo en que los promotores de estos 4 ejemplos tienen que seguir invirtiendo en ellos.

Bien, entonces, ¿cuál es el mayor desafío que las grandes corporaciones encuentran en su roadmap de innovación? Por mi experiencia, lo que veo es que las grandes empresas tienen 3 de los 4 elementos que se necesitan para crear un modelo de negocio o un producto /servicio exitoso. Tienen expertos que conocen el mercado y sus clientes, y saben ver las oportunidades; tienen dinero para invertir en nuevas iniciativas; y tienen clientes actuales a los que pueden lanzar nuevas propuestas para empezar a monetizar desde el corto plazo. Lo que no tienen es resistencia; su energía no está enfocada hacia el futuro, au contraire, los empleados viven por lo general en el presente. Porque sus objetivos, su bonos y sus desempeño se revisan anualmente. Y si alguno de ellos tuviera objetivos a largo plazo, apuesta a que la siguiente reestructuración anual va a agitar el organigrama, ¿y quién sabe dónde van a acabar los directores? Y cuando un CxO cae, ¿qué le acaba pasando a su equipo?

Ned Stark beheaded

Juego de Managers

La innovación empieza en el presente, pero sus resultados ocurren en el futuro. Date cuenta que he dicho «futuro», no «Horizonte«.  El modelo de los 3 Horizontes lo propuso McKinsey en 1999, y desde entonces, ha sido usado ampliamente por la mayoría de las corporaciones. El 3er Horizonte es el que representa la visión del largo plazo y la innovación disruptiva (no incremental); es el lugar donde las ideas se enfrentan al mayor nivel de incertidumbre. Yo comparto el modelo de los Horizontes como una buena forma de gestionar un portfolio de proyectos, sin embargo, no me parece suficiente, creo que le falta algo. Queremos que la innovación viva el tiempo suficiente como para pasar de MVP a break even, de break even al Horizonte 2, y después al Horizonte 1 (que en algún momento en el futuro se habrá convertido en el presente). Para que sea relevante, la innovación necesita además de todo eso, sobrevirir a las tormentas de la designación del nuevo CxO.

Encuentro que la prospectiva estratégica y el diseño de futuros son la mejor manera de garantizar que la innovación tiene un propósito que va a resistir. Un propósito lo suficientemente fuerte para que el proyecto viva el tiempo que necesita para dar resultados, que sobreviva a los cambios en los presupuestos y los cambios en la organización. Como innovadores, tenemos que trabajar en diseñar un futuro, aquél que la organización quiere ver cumplido (teniendo en cuenta la visión de sus clientes, empleados, accionistas, la sociedad, el medioambiente, lo que sea) y luego hay que asegurarse que los proyectos y las iniciativas están alineados con esta visión del futuro. Porque la visión del futuro tiende a ser más fuerte que los cambios o el día a día, ya que los cambios y el día a día existen para materializar la Estrategia (y no al revés)

Tengo la sensación que el diseño de futuros está de moda porque es la forma que hemos encontrado de hacer que lo que hemos aprendido sobre diseño de productos, servicios y modelos de negocio, escale hacia la Estrategia. Pero para mí no es suficiente, para conseguir que las grandes empresas inviertan recursos (tiempo y dinero) en algo que esperamos que llegue a break even en 3 alos, y que genere ingresos relevantes dentro de 5 o de 10, mi consejo sería validar lo Frágil que es el futuro que estamos diseñando.

Creatividad, Innovación y Apropiación Cultural

Tiempo de lectura: 10 minutos

Es difícil definir qué es la creatividad sin usar la palabra «crear». Tanto como lo es definir la innovación sin usar la palabra «nuevo». Me pregunto por qué la gente escribe posts con su definición de algo, cuando existen los diccionarios. Y aún así, aquí estoy, escribiendo un post de lo que significan para mí esos términos. ¿Por qué? Imagino que porque las palabras a veces se usan bien o mal, o lo que es peor, se usan de manera diferente de lo que se pretendía. Creo que el peor problema de comunicación entre dos personas ocurre cuando ambos usan las mismas palabras, pero en sus mapas mentales, les han dado diferente significado. Así que creen que están entendiéndose, pero en realidad no.

Me gusta en concepto de transformar las ideas en cosas que existen, porque implica la existencia de un proceso que produce algo nuevo. Algunas personas encuentran que éste proceso es escribir, dibujar, pintar, componer, diseñar, incluso actuar o cantar. En esta definición de creativdad, las ideas se convierten en cosas accionables. Cuando se «crea» alguien puede hacer algo con el resultado. Por el contrario, si conviertes las ideas en otras ideas que siguen dentro de tu cabeza, quizá lo que tienes es imaginación. Como ingeniero, diría que puedes tener imaginación pero no ser creativo, sin embargo, para ser creativo tienes que tener imaginación.

¿Y qué pasa con la innovación? Hay muchas definiciones por ahí, la mayoría conectan la innovación con los negocios. No tengo claro que la innovación tenga que conectarse con el «éxito» (puesto que el fracaso es una parte esencial de la innovación), ni tengo claro que deba limitarse a algo que genere ingresos. O con el «valor«. ¿Qué es el valor? ¿Y quién lo define? ¿El que lo crea? ¿El que lo usa? ¿El que lo paga?

Innovación es el uso de la creatividad para resolver un problema existente, de una manera que nunca se había hecho antes.

Y luego ya veremos si genera dinero o no. De nuevo, para mí tiene sentido conectar la innovación con un problema. Uno que exista, claro; de lo contrario, si estás usando la creatividad para crear un problema que no existía, a lo mejor estás comentiendo un fraude (o un delito, según la gravedad del problema que te inventes). Puedes usar la creatividad para hacer algo que nunca se haya hecho anteriormente, pero si no resuelve un problema que la gente tenga, quizá más que un innovador, serías un inventor.

Wile E Coyote

El Coyote no es un innovador, porque nunca ha resuelto su problema con el Correcaminos

Como veis, las ideas son la base de ambas definiciones. Pero, ¿las ideas de quién?

Mi Precioso

Le damos demasiada importancia a la autoría de las ideas. Sobre todo, los emprendedores primerizos. Llevo recibiendo planes de negocio para que los valore desde hace 9 años. Con el tiempo, he desarrollado cierto cariño hacia esas personas que tienen «una idea revolucionara que va a cambiar un negocio», de la que no pueden hablar si no firmas un NDA. ¿He dicho «cambiar»? Me refería a «disrumpir«. Ese palabro, disrupción, otro ejemplo de algo que todo el mundo usa sin entender lo que significa.

Las ideas están por ahí flotando. La inspiración viene y va en conversaciones, artículos, películas, conferencias, libros, cafeterías, bares… Lo que hace a los humanos diferentes de los animales es nuestro cerebro, que ha evolucionado para generar ideas. En marzo de 2020, hay 7.8 mil millones de personas en el mundo. Nadie sabe cuántas ideas se generan cada día; el Dr Deepak Chopra estima que el cerebro humano genera de 60 a 80 mil pensamientos cada día. Así que si echas cálculos, estadísticamente se me hace difícil pensar que cualquier idea que tengas es original, única y diferente.

My Precious

Es mío

No hay nada más peligroso que una idea, cuando sólo tienes una idea. Y aún así, puedes encontrar cientos de citas, conferencias, charlas, y libros que dicen que la ejecución es la clave del éxito. No es la idea, es cómo llevas la idea a la práctica. Espero que me perdones, querido lector, si crees que, como escritor, te he llevado al origen de mi post para demostrar mis propias teorías. Es una licencia que tenemos los escritores. Pero lo cierto es que hemos vuelto a la definición de la creatividad (hacer una idea realidad) e innovación (para resolver un problema existente de forma diferente)

Cuando escribía este artículo, tuve la ocasión de leer la última lluvia de mierda en Twitter: uno de lo modelos españoles mejor pagados se quejaba amargamente de que no le llegaba una tortilla, que había pedido por una app. No se quién fue el primero que pensó en repartir comida a domicilio. Parece ser que hay registros que demuestran que un estudiante coreano escribió en su cuaderno que unos amigos y él habían pedido noodles ¡en julio de 1768! En los años 60, algunas compañías empezaron a aceptar pedidos telefónicos sin cargo adicional (PizzaHut empezó en 1958 y Domino’s en 1960) Osea que en los últimos 200 años, los restaurantes contrataban chavales para repartir comida (principalmente pizza, sushi o comida china) usando sus propios medios de transporte. Era un modelo de negocio: alguien que tiene su moto propia reparte tu comida en menos de 30 minutos.

En 1995, dos emprendedores lanzaron Waiter.com, considerado el primer agregador online para pedir comida. Permitía a la gente hacer pedidos en 60 restaurantes (que tenían sus propios medios de reparto). Que un restaurante acepte pedidos telefónicos, parece una inovación más pequeña que agregar en un único lugar un montón de diferentes variedades para elegir, y hacer el pedido. Así que Waiter.com representa una gran idea que se convierte en un modelo de negocio. Que por cierto, JustEat implementó mejor. Fue fundada en el año 200 por cinco emprendedores daneses, y hoy es una compañía que factura más de 700 millones de libras.

El siguiente paso es Deliveroo, que fue fundada en febrero de 2013. La compañía introdujo la innovación de permitir que cualquier restaurante pudiera entregar comida a domicilio, sin importar si tenía o no medios para hacerlo. Deliveroo manda a uno de sus riders a cambio de una comisión. GrubHub introdujo la misma idea de reparto en junio de 2014. UberFRESH (el origen de Uber Eats) salió en Santa Mónica en agosto de 2014. Y Glovo fue fundada en septiembre de 2014 en Barcelona (aunque no aceptó pedidos hasta marzo de 2015). Así que, ¿quién lo pensó primero? ¿Y si todos ellos simplemente se inspiraron cuando Uber lanzó su modelo de todos-podemos-ser-taxista en 2010?

Tesla vs Edison

AC / DC

Así que ¿tienen dueño las ideas? Y si lo tienen ¿realmente importa? Del océano de citas motivacionales, he pescado cuidadosamente tres:

“You know, one of the things that really hurt Apple was after I left, John Sculley got a very serious disease. It’s the disease of thinking that a really great idea is 90% of the work.” (Steve Jobs)

 

“It’s important not to overstate the benefits of ideas. Quite frankly, I know it’s kind of a romantic notion that you’re just going to have this one brilliant idea and then everything is going to be great. But the fact is that coming up with an idea is the least important part of creating something great. It has to be the right idea and have good taste, but the execution and delivery are what’s key.” (Sergei Brin)

Entonces, si las ideas no son la clave en términos de innovación o de negocio, ¿por qué intentamos esconderlas? Puede ser porque nos de miedo que opinen de ellas, que nos juzguen o nos rechacen. O puede que encontremos la razón en la tercera cita. La que usaré como puente para conectar con el tercer concepto de este artículo. Es de una entrevista de 2004 con el director John Landis:

“People don’t understand this: Ideas are important, but they’re not essential. What’s essential and important is the execution of the idea. Everyone has had the experience of seeing a movie and saying, “Hey! That was my idea!” Well, it doesn’t mean anything that you had that idea. There’s no such thing as an original concept. What’s original is the way you re-use ancient concepts.” (John Landis)

Este es el quid de la cuestión. ¿Y si alguien con más recursos, poder y fuerza de voluntad toma lo que es mío, mi idea, y lo usa en su propio beneficio mejor que yo?

Lo de la Apropiación Cultural

  • El grupo que adopta los elementos culturales elimina su significado y propósito, convirtiéndolos en algo que no tiene nada que ver con el simbolismo que sus creadores les transmitieron.
  • El grupo que adopta los elementos culturales representa una cultura hegemónica o dominante, mientras que el grupo que creó los elementos adoptados es una minoría, o se considera marginal.

Apropiacion Cultural

¡Apropiate de esto! (Foto de Gavin Watson en 1979)

Sinceramente, no estoy preparado para bucear en las aguas que separan la Apropiación Cultural de la Inspiración, o la Apreciación Cultural, porque no soy antropólogo ni sociólogo.

De cualquier manera, en términos de creatividad y de innovación, diría que hay muchos ejemplos de ideas copiadas o mejoradas entre empresas de tamaño equivalente. Tomemos por ejemplo la App Store. Fue anunciada por Steve Jobs en una conferencia de desarrolladores en marzo de 2008, como la plataforma desde la que descargar apps en el iPhone. Abrió algunos meses más tarde, en julio de 2008. Por otro lado, Android Market (lo que es ahora Google Play) fue anunciado en agosto de 2008, y abrió en octubre de 2008. Así que ambas ideas son prácticamente la misma, y mirando las fechas, ya sabemos cuál vino antes. Sirven para lo mismo, y resuelven el mismo problema, pero de forma diferente. Sobre todo, por dos razones:

También hay ejemplos de empresas pequeñas que se hacen con el negocio de otras más grandes. El caso de cómo Netflix se adueñó del negocio de Blockbuster es algo que Christensen usó como ejemplo de disrupción.

Puedes encontrar casos de innovaciones fallidas que, con el paso del tiempo, otros consiguen hacer triunfar. Por ejemplo, el Timex Datalink fue el primer reloj digital capaz de bajarse información de un ordenador. Fue un desarrollo conjunto con Microsoft, que salió al mercado en 1994. El Datalink 50 tenía memoria para almacenar 50 números de teléfono, era capaz de sincronizar notas, listas de tareas y esa clase de cosas. La manera en que los ingenieros hicieron esa sincronización es sorprendente. Usaban destellos de luz para codificar datos. Suena muy naïf comparado con el AppleWatch, pero claro, es que ese producto salió 20 años antes.

Conocemos multitud de ejemplos de grandes corporaciones que compran empresas pequeñas para quedarse con sus ideas, productos o servicios, y hacerlos suyos. Por ejemplo, la compra que hizo Facebook de Whatsapp o de Instagram. Pero lo hacen precisamente por los logros que consiguieron las empresas pequeñas, reconociendo con la compra su incapaz de competir con ellas.

swiper

¡Swiper, no robes! (Dora la Exploradora, Nickelodeon)

Es triste aprender que es perfectamente legal que alguien robe tus ideas. Puede que no sea ético o elegante, pero lo cierto es que, a menos que puedas proteger tu idea por una marca registrada, una patente, un copyright o cualquier otra forma de Propiedad Intelectual, cualquiera puede cogerla y usarla para resolver problemas mejor que tú. No somos los dueños de nuestras ideas, esa propiedad no existe. Podemos patentar inventos, declarar el copyright de trabajos creativos, o registrar como marca logotipos y demás; pero no podemos registrar la propiedad de una «idea». Puedes mandarle a alguien un NDA, con la esperanza de sentar la base para una reclamación judicial, aunque estos juicios son caros y difíciles de ganar.

Lo que no he podido es encontrar ejemplos de compañías o colectivos dominantes, usando las ideas de otros de forma diferente a lo esperado, quitándoles el sentido o propósito para el que fueron creados. Algo que pudiera ser considerado Apropiación Cultural en el campo de la innovación. Es justo lo contrario: coges la idea de alguien, e inviertes más dinero o recursos para hacer que funcione mejor. De todas maneras, entiendo que la ausencia de evidencia no implica la evidencia de ausencia.

¿Y si alguien usa las ideas de otra persona en su proceso creativo o de innovación, reconociendo cómo sus autores les inspiraron? Bueno, en ese caso, ¿qué más podrían hacer? ¯\_(ツ)_/¯