Atrapados en el Mito de la IA

Tiempo de lectura: 10 minutos

Si eres el CEO de una empresa, o un emprendedor que ha lanzado una startup, vete pensando en buscarte otra cosa. El plot twist que nadie vio venir del impacto de la Inteligencia Artificial en el empleo es que, en breve, ambos trabajos serán irrelevantes (preveo gran crisis en LinkedIn).

¿Cómo de breve?

A finales de 2023 se estimaba un horizonte de 2 años. No se si ahora que es finales de 2025 lo tenemos ya encima, pero debe estar ahí-ahí. La experiencia dice que invertir mucho dinero en poner a trabajar a personas muy inteligentes hará que ocurra antes o después.

¿Trabajando en qué?

En incorporar a la IA lo que los anglosajones llaman agency, término que aúna la capacidad de elegir qué acción tomar, tomarla y, por tanto, asumir las consecuencias.

Esta es la premisa de Mustafa Suleyman[1] que propone un nuevo Test de Turing. Originalmente [2], el Test de Turing habla de máquinas capaces de simular un comportamiento indistinguible del humano, en un juego que llamó “Imitation Game”. Básicamente el jugador, haciendo preguntas, debía adivinar si hablaba con un hombre o una mujer, y de ahí, si la máquina podría engañar al jugador para que no fuese capaz de distinguirla como tal. El fundador de DeepMind va más allá, propone saltar de la pregunta “¿pueden pensar las máquinas?”, a la pregunta “¿pueden las máquinas tener impacto relevante en el mundo?”.

¿Qué considera “impacto relevante”?

Pues que una IA sea capaz de hacer un estudio de mercado, identificar una necesidad compartida por un grupo de personas, encontrar una forma de satisfacerla, construirla, lanzarla y comercializarla, convirtiendo una inversión de 100.000 dólares en un resultado de 1 millón.

Vamos, el trabajo del CEO o el emprendedor.

¿Por qué alguien propondría que, de todas las cosas que puede hacer un ser humano (como educar a un niño, alimentar a un hambriento, atender a un enfermo, cobijar a un refugiado, descubrir una vacuna, etc.) lo realmente valioso sea mover millones de dólares?

Porque él lo hizo. Y porque puede. Porque le da la gana. La clave de ser un tecno-emprendedor de éxito es que puedes hacer lo que te dé la gana. Como por ejemplo:

Lo que te dé la p**a gana (Photo by ANGELA WEISS/AFP via Getty Images)

“Dato mata relato”

Es difícil rastrear el origen de la expresión “dato mata relato”, me gusta pensar que tiene sus raíces en Husserl [3], cuando dijo que “meras ciencias de hechos hacen meros seres humanos de hechos”.

Parece que las personas que trabajamos en tecnología hemos aceptado y después asimilado y por tanto incorporado la visión neopositivista [4] de Schlick, Carnap y el resto de los miembros del “Círculo de Viena”. Me resulta raro, porque el neopositivismo es una visión de la ciencia (conocer la realidad para poder explicarla), y diseñar, desarrollar y evolucionar AI es el dominio de la tecnología (transformar la realidad a través del conocimiento).

La concepción científica del mundo neopositivista introduce dos cambios que no hemos conseguido superar socialmente, y que están en el trasfondo de la crisis de valores que vivimos. En primer lugar, el empirismo, que consiste en admitir como cierto sólo aquello que se puede comprobar a través de la observación, y por tanto medir; y si se puede medir, puede convertirse en un dato de una Excel, y someterse a un algoritmo. Consecuencia de lo anterior, se propugna que la ciencia (que incluye matemáticas, física o lógica formal) es la fuente suprema de obtención de conocimiento. En segundo lugar, el neopositivismo se declara abiertamente contrario a la metafísica como disciplina capaz de explicar el mundo, y al pensamiento abstracto como forma de llegar a conclusiones verdaderas.

Y esta idea resulta muy interesante, porque si relegamos por debajo de la ciencia a la metafísica (por no ser una fuente aceptada de conocimiento) y la epistemología (por estar acotada al conocimiento que obtiene la ciencia) ¿dónde pondremos la ética? Por ejemplo, la pondremos debajo de la economía. Subordinada. He escuchado a personas decir en público que sus principios están vinculados al precio que pagan por tenerlos.

Esta pregunta está implícita en las críticas al neopositivismo. En su conferencia en Viena de 1935 [5], Husserl plantea que no todas las preguntas que se hace el hombre se pueden responder desde la ciencia; y que no hay que aceptar que, de entre todas las preguntas que se puede hacer el hombre, sean las más importantes justo aquellas que se pueden responder desde la ciencia. En su crítica, Husserl advierte la incapacidad de las disciplinas humanistas de defenderse frente al reduccionismo de lo medible, y por tanto del dato.

Dato mata relato.

Desde esa incapacidad surge esa crisis de valores que identificaba en la sociedad, inicialmente europea de los años 30, ampliable al mundo occidental en general hoy en día.

Los relatos míticos del siglo XXI

Husserl propone que la espiritualidad humana es un dominio de conocimiento ajeno al mundo de la ciencia, y por tanto no explicable desde la racionalidad de observaciones y datos. Aquí entrarían los valores, la moral, etc. “Dato mata relato” perpetúa el reduccionismo neopositivista, o sea, el reduccionismo de los valores. No se puede explicar la espiritualidad con una Excel. Lord Kelvin dijo que “lo que no se puede medir, no se puede mejorar”, y por desgracia nos lo hemos creído.

Sabemos que las sociedades humanas se articulan y unen en torno a relatos míticos, y que la historia nos demuestra que esos relatos los construyen personas con intereses. Pero claro, en el contexto en el que primero Husserl y luego Heidegger se movieron, el espíritu, como explicación del hombre, se vinculó a las identidades nacionales (el espíritu del individuo supeditado al espíritu de su nación), y los relatos que se construyen alrededor. Heidegger proponía como solución a la crisis del reduccionismo la recuperación de los relatos míticos clásicos [6], aunque el suyo por desgracia se vinculó a la identidad de la nación alemana, a partir de las ideas de Fichte, Schiller, Goethe y Hölderlin entre otros. Que luego utilizó el nacionalsocialismo para ascender al poder, y ya sabemos que eso acabó en Genocidio. En nuestros días, la invasión de Ucrania de 2022 sin ir más lejos se explica en las fuentes oficiales [7] con un relato que se retrotrae al Mito Fundacional Ruso, con San Vladimiro, Príncipe de Nóvgorod, Gran Príncipe de Kiev, y cristianizador de la Rus de Kiev en el siglo XI.

No os preocupéis, que hay relatos míticos y genocidios para todos

Normal que genere rechazo acudir a la narrativa Mítica para la creación de valores.

Una cosa interesante que no se si habrás pensando, es que las personas que creaban e imponía un relato mítico empezaron siendo los chamanes, y luego llegaron religiosos, militares, gobernantes, poetas, filósofos, intelectuales… Lo llamativo del siglo XXI es que surge un nuevo tipo de personas capaces de crear e imponer relatos míticos.

Empresarios y emprendedores.

¿Y qué relato mítico pueden crear?

Pues poder, podrían crear cualquiera.

Ya, pero ¿cuáles han creado?

Relatos en los que mitifican (su) capacidad para generar (su) riqueza o tomar (sus) decisiones. Se resumen en dos. Uno, el del hombre hecho a sí mismo que, empezando de la nada (o de la casi nada, según la pasta que le haya dado papi) consigue triunfar. Este relato ensalza el trabajo duro y el sacrificio y equipara “triunfo” y “riqueza”. El otro es el relato de “lo hago porque puedo”. Que no es la explicación de Trasímaco [8] cuando dice que lo justo es aquello que los poderosos imponen sobre los débiles. Sino más bien la línea del “Might is right” de Arthur Desmond [9]: que la razón (entendida como motivo) de hacer algo, es precisamente poder hacerlo. Algo reservado a los fuertes, audaces y ambiciosos. Que conducen un Lambo.

Salir del Mito

Lo que nos devuelve al origen de esta reflexión. A lo largo de sucesivas iteraciones, se ha impuesto un nuevo relato mítico: el de la tecnología que avanzará sin descanso hasta construir la Inteligencia Artificial que domine, supere y haga irrelevante al ser humano. De suerte que este relato técnico, se funde con el relato del empresario / emprendedor, que va a hacer que ocurra porque quiere o porque puede, y así nace la gran narrativa en la que estamos inmersos.

Es una lástima que nosotros los técnicos, inspirados sin saberlo por Husserl y Heidegger, hayamos creado un relato mítico que, desde lo técnico, va contra el espíritu del hombre, por la pasta, o por la audacia. Cerrando un círculo vicioso del relato técnico que neutraliza el relato de la espiritualidad.

Los líderes de la comunidad técnica necesitan abandonar este Mito, y aceptar otros que expliquen su propósito, relatos que nunca más deberían venir de aquellos que quieren transformar la realidad sólo si da dinero o alimenta su ego.

Debemos volver a los orígenes de la tecnología. 

El relato mítico fundacional de la tecnología ya lo explicaba Protágoras [10]. El titán Prometeo robó las artes de Atenea (conocimiento) y Hefesto (tecnología), y con ellas el fuego (energía) sin el que no servirían para nada, y se las dio a los hombres para su progreso. No pudo robar la sabiduría política porque esa la custodiaba Zeus.

La ciencia, como fuente de conocimiento. La tecnología como transformación de la realidad a través del conocimiento. La transformación de la realidad para progresar hacia una sociedad mejor en los sentidos de libertad, igualdad, solidaridad, justicia, transparencia, sostenibilidad, inclusión

En Europa por ejemplo hemos tenido que regular por Ley [11] que ese debe ser el propósito de la Inteligencia Artificial, para que a nadie le quede ninguna duda.

Pues todavía salen personas diciendo que esa Ley coarta y limita nuestra capacidad de innovación, ¡poniéndonos en desventaja!

¿Quién querría innovar sin respetar la libertad, la igualdad, la solidaridad…? ¿Cómo podría considerar el respeto de la libertad una desventaja?  ¿Por qué no elegiría sumarse al relato Mítico de Europa como bloque donde se defiende la solidaridad? [12]

El relato Mítico de Europa

Jürgen Habermas tiene una visión interesante de qué significa Europa y en qué consiste ser europeo. Tuvo su epifanía en un día en particular, el 15 de febrero de 2003 cuando millones de personas marcharon contra la Guerra de Irak [13]. El francés Jacques Derrida compartió esta percepción y fue cosignatario de su manifiesto. Todas esas personas tenían en común precisamente ser europeos. Su conciencia colectiva despertó de manera global por encima de las fronteras de los países y sus gobiernos. El problema es que esa gente de la calle, esta esfera pública de la ciudadanía, no se trasladó a la acción política, ni en los gobiernos particulares, ni a nivel general, y hubo Guerra en Irak. Esta desconexión entre el ciudadano y el poder, que puede ser algo habitual en cualquier sistema político, es uno de los problemas esenciales que definen el hecho de ser europeo, porque se siente por partida doble. La desconexión con el gobierno de tu país, y desde ahí, la desconexión con el gobierno de Europa. Por ejemplo, en materia de regulación de la IA.

Si no se puede escuchar a Habermas, habrá que leerle. (Abisag Tüllman, BPK)

El déficit democrático persigue a Europa desde su (re)fundación en los años 50, y es algo en lo que deben trabajar los políticos, pero también debe ser responsabilidad de directivos y emprendedores. Que aquellos que tienen voz y representan a otros, trabajen en una Europa más fuerte. Esta fortaleza va más allá de buscar el equilibro entre importaciones y exportaciones en una Excel, pasa por alinear al ciudadano con su gobernante, materializar la auténtica unión política, y salir del papel de mercado de consumidores del que no nos quieren dejar salir Estados Unidos y China. Europa es mucho más que un gigantesco mercado de 740 millones de consumidores.

¿Cómo pasar del proyecto-mercado común al proyecto-político común? La visión de Habermas no se basa en desarrollar la identidad paneuropea desde la historia, pues pasaría por intentar unificar las características de diferentes naciones, que han estado en guerra entre sí desde la época clásica, siendo la Segunda Guerra Mundial la más horrible de todas ellas. Sino en articular la voluntad ciudadana que, tiene un proyecto hacia el futuro basado en ciertos principios y logros sociales compartidos. ¿Qué es lo que une a los europeos? ¿Qué cosa es la identidad de Europa?

Pues una serie de creencias. Los europeos creemos en la separación de poderes, incluyendo separar la religión del estado. También en la democracia participativa y el sufragio universal. En el estado del bienestar, que se funda en conceptos como el derecho a la educación y la asistencia sanitaria, las pensiones o los subsidios por desempleo. En el rechazo al uso de la fuerza para resolver los conflictos internacionales, en la tolerancia a otras ideas, y en el respeto a los derechos y libertades individuales [14]. Esta cultura política nos distingue esencialmente de otros modelos de sociedad como el ultraliberalismo estadounidense, el modelo de partido único chino, la cleptocracia rusa… por no hablar de los estados fallidos. Aunque estas creencias son culturales, devienen de situaciones históricas, como no puede ser de otra manera. Las guerras de religión nos enseñaron a separar el gobierno de la fe. La Ilustración y las Revoluciones, a separar el poder legislativo, del ejecutivo. El Holocausto, a poner el respeto a los derechos humanos por encima de todo. El Post-Colonialismo, a aceptar las visiones de otras identidades nacionales, y así.

Es posible que la AI Act no sea la mejor regulación en IA, y que pueda mejorarse y enmendarse, como todas las legislaciones, pero su redacción con principios como la transparencia y la explicabilidad, y su orientación al riesgo para las libertades individuales deberían ser un referente. ¿Por qué querría alguien no subirse al relato del paneuropeísmo?¿Por qué rechazarla sin haber entendido su propósito?

Porque el relato del emprendedor hecho a sí mismo, porque quiere y porque puede, mola más. Porque somos egoístas. Porque queremos ganar más dinero y conducir un lambo para poder subirlo a Instagram y que nos admiren.

Y porque hemos dejado fuera la ética y el humanismo en la formación a Directivos, Emprendedores y Técnicos.

Lo que está claro es que “dato mata relato” es en sí mismo un relato.

Jaque mate, dato.

Redux

Una versión más ligera de esta reflexión se publicó en la revista Ethic el 25 de marzo de 2024.

Referencias

[1] Suleiman, M. (2023), “The coming wave”, Crown.

[2] Turing, A. M. (1950), “Computing machinery and intelligence”, Mind 49:433-460

[3] Husserl, E. (2008), “La crisis de las ciencias europeas y la fenomenología trascendental”, Prometeo Libros

[4] Hans H. et al (1929), “The Scientific Conception of the World. The Vienna Circle”,, presentado en Tagung für Erkenntnislehre der exakten Wissenschaften

[5] Husserl, E. (1935), “Philosophy in the Crisis of European Mankind”, conferencia del 10 de mayo de 1935 en Viena.

[6] Habermas, J. (1977), “Martin Heidegger on the publication of lectures from year 1935”, Graduate Faculty Philosophy Journal 6 (2):155-180.

[7] Putin, V. (2021) “On the historical unity of Russians and Ukranians”, recuperado de http://www.en.kremlin.ru/events/president/news/66181

[8] Platón, (2013), “La República”, Alianza Editorial

[9] Redbeard, R. (2020), “Might is right. The survival of the fittest”, Forgotten Books

[10] Platón, (2015), “Protágoras / Gorgias / Carta Séptima”, Alianza Editorial

[11] 2021/0106 (COD), Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS

[12] Habermas, J. (2015), “The Lure of Technocracy. A Plea for more European solidarity”, Polity Press

[13] Habermas, J. y Derrida, J. (2003), “February 15, or What Binds Europeans Together”, Constellations Vol 10.

[14] Habermas, J. (2001), “Why Europe Needs a Constitution”, New Left Review 11.

Esencialismo Artificial

Tiempo de lectura: 14 minutos

El sueño de Diderot y d’Alembert

Hay teorías que sugieren que la Torre de Babel del Génesis [1] era el zigurat de Etemenanki, erigido en Babilonia entre los siglos 14 y 9 antes de Cristo en honor del dios Marduk. Según eso, pasaron cosa de 3.000 años desde que Yahvé confundió a los hombres hasta que Diderot y d’Alembert empezaron a publicar su Encyclopedie [2].

¡3.000 años!

Menos mal que desde entonces, ya no se puede confundir a los hombres: todo lo que tienen que saber está perfectamente recogido y clasificado.

El llamado “Ideal Enciclopédico” es uno de los pilares de la Ilustración (que en inglés dicen Enlightenment, nombre que nos invita a pensar en llevar la Luz a quién está en las tinieblas, lo cual es mucho más elevado que ilustrarla, dónde va a parar). Los propios autores incluyen una entrada “Encyclopédie” en la “Encyclopédie”, en la que definen su objetivo como:

“recoger todo el conocimiento desperdigado por la superficie de la tierra, para demostrar el sistema general a las personas con las que vivimos; y transmitirlo a las personas que vendrán después de nosotros; para que así, el trabajo de los siglos pasados no sea inútil para los siglos venideros, y nuestros descendientes, por estar más instruidos, sean más virtuosos y felices” [3]

Diderot y d’Alembert no hicieron el primer “diccionario”, tampoco hicieron el primer “tratado”, ni el primer “compendio”, ni fueron los primeros en afirmar que alguien podría ser más virtuoso y feliz por estar instruido.

Ni siquiera fueron los primeros que pensaron que era una gran idea recoger conocimiento, compartirlo y dejarlo para las generaciones venideras.

El ser humano lleva recopilando, compartiendo y legando conocimiento desde que aprendió a escribir, porque para eso aprendió a escribir. La forma más rudimentaria que se conoce son los diccionarios de términos en sumerio y arcadio, datados en algún momento del segundo milenio antes de Cristo. Son las míticas tablillas Urra=Ubullu, de las que se conocen al menos 24, y que contienen un léxico de 10.000 palabras en ambos idiomas. No te lo vas a creer, pero la primera traducción que se conserva de la historia, urra es igual que ubullu, ese concepto, es del de deuda con intereses.

Tablilla Urra=Ubullu 13

La Tablilla 13 se conserva en el MET de NY, y recoge términos de animales domésticos

La historia de la humanidad es la historia de cómo se ha recogido, ordenado y presentado el conocimiento que se tenía en un momento concreto, para ponerlo a disposición de la siguiente generación. O la historia de cómo se han cobrado deudas con intereses, que también podría ser.

Lo relevante de la Enciclopedia de Diderot y d’Alembert es que nace con el objetivo de ser sistemática y exhaustiva (por ello recoge términos de todos los dominios de conocimiento de la época: matemáticas, botánica, filosofía, historia, arte, oficios…), y accesible (redactada en términos que permitieran que ese conocimiento pudiera llegar a cualquier persona de cualquier clase social siempre y cuando supiera leer). Fue necesaria la contribución de 150 autores para escribir las más de 75.000 entradas de la Encyclopédie, una titánica tarea de recopilación, desarrollo de contenidos, y edición.

Para el siguiente salto relevante en el acceso al conocimiento hubo que esperar a la enciclopedia Encarta de Microsoft del año 1993, que ocupaba un CD-ROM, tenía buscador y además habilitaba que las entradas de la enciclopedia se relacionaran unas con otras a través de enlaces. Hasta entonces, la búsqueda de un lema era un proceso que consistía en leer los lomos de cada tomo, coger el que contenía la inicial, y abrirlo por el principio, la mitad o el final según lo que se buscaba, para ir avanzando adelante o atrás. Y no existían los términos relacionados.

Microsoft Encarta 1993

La Home de Encarta 1993 se sigue usando como ejemplo en los cursos de Visual Design y User Experience

 

El siguiente salto llegó en 2001, cuando  la Wikipedia propusiera un modelo abierto de contribución y revisión descentralizada, donde el equipo editor pasa a estar formado por voluntarios con tiempo y ganas.

Pero la forma en la que hemos decidido estructurar el acceso al conocimiento desde la epoca de los sumerios siempre ha sido la misma: a través de entradas (o lemas). Una persona tiene que saber qué entrada quiere consultar para llegar a ella.

El buscador y los hipervínculos son mejoras incrementales de resolver el mismo problema.

El problema de llegar a una entrada.

Da igual que sea una tablilla de cera con escritura cuneiforme o una representación digital de ceros y unos en forma de página web. Cuando alguien quiere saber algo, accede a un conocimiento que se presenta como una serie de enunciado afirmativos agrupados bajo un título, con una estructura (es decir, con un orden, ¿qué orden? el que considera adecuado quién haya redactado la entrada)

Una entrada es una página en la que se te dice lo que se sabe sobre un tema, escrita por alguien que ha contribuido con su conocimiento, demostrado porque ha aportado referencias. Las referencias son la forma objetiva que tenemos para justificar por qué lo que hay escrito en una entrada es correcto, lo que no deja de ser una herencia del espíritu de Pensamiento Crítico que proponía la Encyclopédie.

El Acceso Universal al Conocimiento

El siguiente salto relevante es el de la Inteligencia Artificial Generativa, donde ya no accedemos a una entrada recogida y estructurada en algún sitio; sino que esa entrada se genera y estructura al momento, en tiempo real, a la medida de la pregunta que se haya hecho, o sea, del conocimiento al que se quiere acceder, a partir de la información clasificada en el modelo, o sus parámetros de grounding, o los enlaces de investigación.

Viendo los datos de los millones de parámetros, tokens y datos que van publicando los LLM [4], la primera conclusión que quiero compartir es que un LLM puede ser la materialización definitiva del Ideal Enciclopédico.

Primero, porque se basan en construir y alimentar un modelo con todo, y todo significa todo, el conocimiento generado por el ser humano, y si no lo tiene, lo puede buscar; segundo porque lo pone a disposición de cualquiera; tercero, porque lo mantiene vivo permanentemente, y cuarto porque ya ni siquiera hace falta saber leer, puedes interactuar por voz.

Digo “puede ser” y no “es” porque en el mundo todavía hay 2,6 mil millones de personas que no tienen acceso a Internet [5].

Apuesto a que tienen más fácil llegar a una Enciclopedia impresa en papel: en el mundo hay casi cuatro veces más personas desconectadas de Internet que analfabetos [6].

Interludio: dialogar con las máquinas

Hay otra cuestión interesante en lo que al acceso al conocimiento se refiere, y es la forma primitiva y esencial con el que buscamos una respuesta a algo que desconocemos.

Taleb introduce en su visión de la Antifragilidad lo que llama «Efecto Lindy» [7] que suguiere que ciertas realizaciones técnicas (o incluso tecnológicas) [8] desarrolladas por el ser humano persisten a lo largo del tiempo, sobreviven a cambios y revoluciones, mientras no se encuentra nada que las mejore. Por ejemplo, yo todos los años actualizo para mis sesiones de Innovación en Escuelas de Negocio la imagen que compara la Silla de Hatnefer [9] (un trono de madera datado en el siglo XV antes de Cristo) con el último catálogo de sillas de Jardín de la temporada de verano.

Trono de Hatnefer y Sillón Bondholmen

¿Qué hemos inventado en 3000 años?

Lo mismo, pero 3.000 años después. Alguien decidió que esa era la forma más sencilla y efectiva de estar sentado. La imagen maliciosamente invita a pensar que en todo este tiempo sólo hemos inventado los reposabrazos, pero ni siquiera eso. Ya había tronos egipcios con reposabrazos. Alguien decidió que apoyar los antebrazos era mejor que tenerlos en el regazo, y luego otro llamó a eso «ergonomía». La innovación en este caso no viene de la experiencia de sentarse, sino de cómo producir la silla, y ha consistido en que lo coges tú de un almacén, te lo llevas tú a tu casa, y lo montas tú con la llave Allen.

Decir que la innovación viene por oleadas significa reconocer que una realización técnica/tecnológica permanece mientras no llegue otra que la supere, y por lo general, la forma de superarla tiene que ver con la experiencia de quién la usa.

Volvamos al tema del conocimiento. ¿Qué formas hemos encontrado de acceder a él?

Cronológicamente, la primera forma que descubrimos todos los seres humanos cuando llegamos a los dos o tres años es preguntar al que sabe.

Ya se encarga el que sabe de procesar nuestra pregunta, acceder a su conocimiento y dar una respuesta. Preguntar al que sabe es una maravilla porque la carga cognitiva recae en él, al contrario del sillón Bondholmen, donde la carga cognitiva (y física) de montarlo (y que no quede torcido) te recae a ti.

Claro, cuando eres pequeño, tu padre, tu madre, tus abuelos, tus profes, son capaces de responder a tus preguntas. Luego vas creciendo y ya la cosa se complica. Lo mismo no tienes cerca al que sabe.

Así pasamos a la segunda forma: consultar entradas en una Enciclopedia o Wikipedia o Manual o en Google, haciendo disponible al que sabe. En el fondo, es lo mismo que se les ocurrió a los Acadios cuando hicieron sus tablillas de cera.

Ya nadie vende Enciclopedias físicas porque ocupan espacio, son incómodas de buscar, y el proceso de actualización por tomos adicionales no está bien resuelto. Pero la forma de acceso permanece desde hace miles de años: buscar una entrada en una página.

¿Es la manera más adecuada? Al fin y al cabo, las personas no buscamos todo lo que hay que saber de una entrada: buscamos sólo una parte, aquello relacionado con ella.

¿Cuánto medía la Torre de Babel?

Debería ser anormalmente alta, al menos para los estándares de la época. Se supone que Yahvé consideró que aquello no estaba bien y por eso castigó a los hombres a no entenderse entre ellos. Encontrar una respuesta a esa pregunta pasa por buscar la entrada de la Torre de Babel en alguna enciclopedia, y una vez en su página, encontrar esa información entre todo lo escrito.

De cualquier manera, esta forma de acceder a la información da más trabajo. Eres tú el que tienes que encargarte de buscar la información, procesarla, relacionarla y encontrar lo que te interesaba. La carga de filtrar entre todo el conocimiento recae en quién busca.

Luego la cosa ha ido mejorando con el tema de los buscadores, y entonces, en la medida en que alguien haya escrito eso en una entrada, Google puede llegar a indexarlo y encontrarlo, y saber que de todos los datos que dispone, el que necesitas es altura y forma. Entre 60 y 90 metros se calcula.

Si preguntar al que sabe es la primera opción por ser la más intuitiva, la que menos trabajo nos da, la más fácil, ahora puedes llevar al que sabe en tu bolsillo y preguntarle lo que quieras. Con la ventaja de que un chatbot construido sobre un LLM no tiene carga cognitiva, solo un fee mensual y ni siquiera eso porque siempre hay un plan gratuito. Todo apunta a que el proyecto de Jony Ive y Sam Altman va sobre eso.

Esta corriente que surge alrededor del prompting, o sea, de aprender a hacer preguntas al sistema, a mí me parece coyuntural (o incluso oportunista si se quiere ganar dinero con eso). Seguimos hablando de la importancia de darle contexto al sistema en la sesión de interacción para que tu interacción se parezca más a lo que quieres. Se basa en la premisa de aprender a “escribir la instrucción correcta para obtener el resultado correcto”, cuando lo que nos ha enseñado el Procesamiento del Lenguaje Natural y la Hiper-personalización es que el sistema, con el tiempo, ya aprenderá a entender lo que le queremos decir. Las Gems de Gemini en el fondo es eso.

¿Dónde estaban las guías de prompts hace 15 años? Ahí sí que eran necesarias. ¿Dónde estaban los post en LinkedIn con “Los 10 ciclos de conversación que tienes que saber para dar de alta tu siniestro”?. Cualquiera que se haya enfrentado a un IVR [10] para sacarse un billete de autobús, dar de alta un parte, o poner una queja, sabe de lo que hablo. Sólo había una cosa que los asistentes virtuales de la antigüedad (o sea, de hace tres años) sabían hacer bien en el 100% de los casos: salir del ciclo de atención y pasar la conversación a un humano.

El tarro de las Esencias

Lo que nos lleva a la tercera cuestión, ¿qué le tienes que preguntar a una Inteligencia Artificial?

Ese sí que es un salto cognitivo relevante porque nos lleva no sólo a la realización del Ideal Enciclopédico, sino al método de la Mayéutica de Sócrates. Este se basa en un maestro que hace preguntas, aceptándose que la pregunta adecuada es más importante que la respuesta correcta. Es difícil saber cuántos discípulos tenía el Maestro Sócrates, pero las fuentes clásicas mencionan por su nombre a 19 y no se indica que fueran todos concurrentes, sino a lo largo del tiempo. Claro, es que la Mayeútica no escala. Conocer a tus alumnos y su nivel de madurez para hacer la pregunta adecuada requiere carga cognitiva que no veas.

Pero… los modelos de IAG generales, ChatGPT, Gemini, Claude, Deepseek.. son capaces de proponer qué preguntas debes hacerles sobre un lema. ¿Son realmente las preguntas adecuadas? ¿O sólo las estadísticamente más probables? ¿O son las adecuadas porque son las más probables? Olvídate de eso. El avance de NotebookLM es grandioso, porque el modelo se entrena exclusivamente con el contenido que se le alimenta, y a partir de ahí, es capaz de generar una guía de estudio a medida para un usuario concreto sobre ese contenido.

Decir que NotebookLM es capaz de generar las preguntas adecuadas, equivale a reconocer la posibilidad de que sea la Inteligencia Artificial la que interpele al humano de manera relevante, que es justo lo contrario del prompting.

Personalmente, tengo inclinaciones realistas porque sí creo que existe la realidad que se manifiesta en fenómenos, y aunque es cada cual el que da sentido al fenómeno, también creo que hay conceptos o categorías universales donde el sentido que le damos es siempre el mismo. Volviendo a Platón, fue el primero en dar una respuesta coherente al problema del ente y el ser, al definir los conceptos ideales. Así, este ordenador portátil con el que escribo es un ente, existe, pero no es el único ordenador portátil. Es uno. Una representación particular concreta de la idea del ordenador portátil. Esta idea corresponde a una esencia que lo hace ser un ordenador portátil y no una tostadora. Luego esta visión ha sido revisada y ampliada.

Y ahí es donde llega, ya para terminar, mi principal reflexión, y la pregunta con la que quiero terminar. En “¿Qué significa pensar?” [11], Heidegger llega a la conclusión de que el pensamiento es la esencia del ser humano. Es decir, el pensamiento es lo que hace que todas las implementaciones particulares de seres humanos seamos seres humanos.

Pero ese pensar no es el pensar cuyo significado ha sido deslucido por el tiempo y la filosofía. Es decir, a traer cosas al pensamiento. Habitualmente asociamos “pensar” al logos griego: decir (algo) sobre (algo). Un pensamiento es lógico cuando ese (algo) que se dice corresponde además con la verdad del (algo) del que se dice.

Sin embargo, Heidegger se retrotrae al fragmento VI del poema de Parménides [12] para proponer que “pensar”, como actividad esencial del ser humano, consiste en poner de manifiesto y tomar en consideración la esencia del ente sobre el que pensamos.

Esto es importante, porque la definición aristotélico-escolástica del hombre como «animal racional» está superada de hace tiempo. Se sabe que los animales tienen rudimentos de lenguaje y de pensamiento, pero no se sabe que sean capaces de reducir y definir la esencia de un ente. Aunque estamos a punto de saberlo; la investigación reciente sugiere que los bonobos son capaces de crear estructuras lingüísticas [13] en las que emana un significado que va más allá de la mera agregación de términos. Sin embargo, Heidegger aporta que la esencia del «ser humano» es estar en el mundo y enfrentarnos al resto de entes que nos rodean, y darles un sentido. Heidegger aborda el problema ontológico del ser diciendo que hay una forma de ser específica para el «ser humano», la del ser-ahí (Dasein), una forma de ser que consiste en relacionarnos con lo que nos rodea, entenderlo, darle un sentido, muchas veces a través de la utilidad, pero siempre desde la posibilidad. De la unión de sentido-posibilidad-uso, el ser humano desvela la identidad de un ser, que puede no existir previamente, así que lo inventa, y luego lo convierte en un concepto «universal». Todas las culturas humanas han llegado a entender lo que es un martillo, su posibilidad, y su uso, aunque era algo que en un momento no existía y luego alguien lo inventó. Y en ese proceso, le hemos dado una esencia [14].

¿Pero qué es un LLM y su modelo interno sino el catálogo exhaustivo de los entes que conoce el ser humano? ¿Cuál es la esencia de un LLM sino la de definir y revelar la esencia de esos entes que almacena?

Hasta ahora sólo había un ser al que preguntar cuando no se sabía, que coincidía con el único ser que era capaz de preguntarse por la esencia de algo, y su posibilidad.

El día que la Inteligencia Artificial no sea capaz únicamente de encontrar la idea esencial de los conceptos que almacena, sino además de definirla o encontrar sus posibilidades, ¿dónde quedará la esencia del ser humano?

Redux

Una versión más ligera de este ensayo se publicó en Ethic el 23 de noviembre de 2023.

Referencias

[1] https://www.conferenciaepiscopal.es/biblia/genesis/#cap11

[2] https://gallica.bnf.fr/ark:/12148/bpt6k50533b

[3] Diderot, Denise et al. “Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des métiers”, 1ª Edición, Tomo 5, p 635, 1751.

[4] https://en.wikipedia.org/wiki/Large_language_model

[5] https://www.itu.int/en/mediacentre/Pages/PR-2023-09-12-universal-and-meaningful-connectivity-by-2030.aspx 

[6] https://www.uil.unesco.org/es/alfabetizacion/alianza-mundial

[7] Taleb, Nassim Nicholas. «Antifragile: Things that gain from disorder». Penguin, 2013

[8] Quintanilla, Miguel Angel. “Tecnología: un enfoque filosófico, y otros ensayos de Filosofía de la Tecnología”. Fondo de Cultura Económica, 2018.

[9] https://www.metmuseum.org/art/collection/search/543868

[10] https://en.wikipedia.org/wiki/Interactive_voice_response

[11] Heidegger, Martin. “¿Qué significa pensar?”, Trotta, 2010

[12] https://blogdemetafisica.blogspot.com/2018/05/traduccion-del-poema-de-parmenides.html

[13] M. Berthet et al. «Extensive compositionality in the vocal system of bonobos». Science 388, 104-108(2025).DOI:10.1126/science.adv1170

[13] Heidegger, Martin. «Ser y tiempo». Trotta, 2012

La Disrupción de los Disruptores

Tiempo de lectura: 10 minutos

Hace 12 años Marc Andreessen escribió [1] un famoso artículo donde explicaba por qué el software se estaba comiendo el mundo empresarial. Un contexto en el que los gigantes tecnológicos copaban los primeros puestos en capitalización de mercado, delante de bancos, operadoras y empresas energéticas. Tres años después, Salim Ismail explicaba en su libro “Exponential Organizations” que el ciclo de máxima competitividad de una empresa se había reducido a cinco años [2], y que el 89% de las empresas que salían en el Fortune 500 del año 1955 ya no estaban presentes en el del 2014.

Si no estás trabajando en la disrupción de tu negocio o mercado, lo está haciendo otro”, dice la web de Ismail.

CEO Nokia

Siempre hay alguien que quiere quedarse con tu negocio

Lo dice porque hemos visto cómo la tecnología digital, de la mano de grandes inversiones de fondos de Venture Capital han transformado la forma en que viajamos, comemos, nos informamos, nos entretenemos, ahorramos o invertimos, incluso la cómo consumimos a otras personas.

Cualquier sector, mires donde mires, se transforma gracias a la tecnología digital.

Esto es así al menos desde hace 12 años, y ahora, en 2023, va siendo hora de que nos hagamos las preguntas decisivas.

¿Quién va a transformar el mercado de la tecnología? ¿Y cuándo lo va a hacer?

Obviamente la tecnología.

Vale, pero ¿qué tecnología?

La Inteligencia Artificial. Y por cierto, ya ha empezado.

Todo va de reducir costes

En los años 80, en la Glorieta de Ruiz Jiménez de Madrid, había una sucursal del Banco Central. Recuerdo ir con mi padre a sacar dinero: rellenabas un papelito con la cantidad, y le dabas la libreta y el DNI a un señor al otro lado de un cristal. Se lo pasabas a través de un cajón con un mecanismo que impedía que dos personas metieran mano a la vez. Luego, el señor revisaba si tenías ese dinero, y metía billetes en el cajón para que los cogieras. Yo mientras me entretenía con uno de esos bolígrafos negros, sujetos con una cadenita (porque la gente roba).

Ese trabajo desapareció con la implantación de los cajeros automáticos, que eran mucho más rápidos, cómodos y seguros. Y sobre todo, que daban dinero a cualquier hora del día, sábados, domingos y festivos. En 2008 llegó a haber más de 60.000 cajeros automáticos en toda España, una maravilla. Y una faena para los cajeros-persona, que se quedaron sin trabajo, claro.

Luego pasaron a cerrarse oficinas bancarias. Hacer operaciones por internet o directamente por el móvil es mucho más cómodo, lo haces desde casa, sin esperar una cola. En 2008 llegó a haber más de 46.000 sucursales bancarias en España, hoy hay menos de 19.000 (como en 1976).

Pasa igual con los call centers. Ninguna empresa dice abiertamente que le dan igual sus clientes, y que hará lo posible para que desistan en la reclamación de sus derechos. Basta navegar un rato en LinkedIn para leer cómo cualquier empresa se declara “customer centric”, o sea, que ponen “al cliente en el centro”, pero ¿en el centro de qué? Cada vez un cliente con un problema usa la salida de “quiero hablar con un agente” porque se ha perdido el diálogo de un IVR [3] o de un chatbot, se demuestra que, como clientes, no estamos en el centro.

Un cliente pensaría que estar en el centro es llamar a un sitio, contarle tu problema a alguien y que lo resuelva. Escuchar que ante tu problema, ese alguien dice, “no se preocupe”.

Empty Call Center

¿Pero dónde está todo el mundo?

¿Quién pensaría que un cliente con un problema quiere escuchar una locución que le invita a volver a decir más claro el motivo de su consulta?

Alguien que prefiere ahorrar dinero.

A la hora de la verdad, cuando una empresa decide (como si las empresas pudieran tomar decisiones, eso no existe, son las personas que trabajan en las empresas las que las toman) que va a eliminar un proceso humano y sustituirlo por un robot o un agente virtual, está usando una ecuación en la que el coste (o sea, lo que se paga) importa más que el servicio (o sea, lo que se hace a cambio de lo que se paga).

Y eso es así porque la Primera Ley dice que con un coste lo suficientemente bajo, cualquier nivel servicio es rentable.

Recordemos que las empresas están para ser rentables.

Montar una empresa y pagar todos los meses religiosamente las nóminas es una complicación, pero se hace porque es la mejor forma de invertir un dinero.

¿Qué dinero?

El de los costes de operar.

La rentabilidad de una empresa tiene que ver con el resultado del dinero que ingresa menos el dinero que le cuesta conseguirlo.

El día que salga más rentable meterlo en la Cuenta Naranja, se acabó la empresa.

Creo que esto es sencillo de entender. Hay personas idealistas que consideran que la tecnología habilita nuevas formas de conseguir ingresos. Y es verdad.

La Segunda Ley dice que a igualdad de costes, si aumentan los ingresos, aumentan la rentabilidad.

Lo que pasa es que, bueno.

En un presupuesto hay una variable que es imaginaria, y otra que es real, como un puñetazo en la cara.

Puedes poner en tu hoja Excel los ingresos que te dé la gana. Te puedes inventar que vas a crecer un 19% mensual. Que los ingresos se van a concentrar antes del verano, y en el último trimestre. Que van a venir de determinadas líneas de negocio, en no sé qué países. Todo eso es un objetivo.

Algo que trabajarás para conseguir.

Algo que no tienes ni idea de si va a pasar o no, lo sabrás al acabar el mes/trimestre/semestre/año.

Pero la parte de los costes. ¡Ay!

Esa parte es real.

Esa parte te dice cada mes lo que te cuesta que tu empresa funcione sin importar lo que ingrese. Es más, lo sabes el 1 de enero de cada año.

El Director Financiero sabe el día 1 de enero toda la pasta que va a necesitar mover para que la empresa opere.

¿Por qué las empresas siempre quieren reducir sus costes? Porque la Tercera Ley dice que a igualdad de ingresos, si bajan los costes, aumenta la rentabilidad.

Ocurre lo mismo desde el punto de vista de las Operaciones. La idea de la eficiencia obtenida con la reducción de costes es la base del modelo Plan-Check-Do-Act [7] y los principios de la Mejora Continua y Calidad Total de Deming [8], que se propusieron en los años 50 y que se siguen estudiando en las Escuelas de Negocio.

Reducir costes es una decisión que actúa sobre un dato real, conocido de antemano, cuyo impacto se puede medir mes a mes y que redunda en la eficiencia. Es una decisión racional.

Bien. La primera reflexión que quería compartir es que los gestores de una empresa, siempre que puedan, tomarán la decisión racional de intentar reducir sus costes.

Programadores en la niebla

Lo que nos lleva a la segunda reflexión. ¿Qué ha pasado en el mercado de la tecnología?

Han pasado cosas maravillosas. Los que empezamos a trabajar a finales de los 90 hemos visto unas cuantas.

Los informáticos de mi quinta leíamos a Douglas Coupland cuando escribió Generación X y Microserfs a principios de los 90 (el artículo original sigue publicado en Wired [4]), también hemos visto “Trabajo basura” [5] que es del año 99, y “The IT Crowd” [6] que es del 2006.

Contextos donde los profesionales de la tecnología digital son personas alienadas en trabajos que no les satisfacen, en organizaciones que no les consideran personas sino “recursos” (como una impresora o un ordenador portátil), mal pagados y sin reconocimiento social, estigmatizados como “freakies”.

Entre medias hemos visto la “Burbuja de las Puntocom” [9]. El contexto opuesto. Caracterizado por una demanda de profesionales que supera la oferta, que hace que se disparen los sueldos y los paquetes retributivos, mejoren las condiciones de trabajo, y el prestigio social.

Sabemos que la Burbuja de las Puntocom terminó con la Crisis de las Puntocom, y eso trajo un ciclo de destrucción de empleo, bajada de condiciones, ajustes y demás en el mundo de la tecnología, que trae de vuelta empleos alienantes con los que hacer una comedia como “The IT Crowd”.

Developers in the Mist

Nunca olvides a esos programadores en la niebla

Llevamos más de 12 años en la bonanza de la Transformación Digital: la tecnología como motor del cambio en todos los sectores.

Eso ha dado lugar de nuevo a un exceso de demanda: todas las empresas necesitan desarrolladores. Hasta el punto en que la relación entre empleador y empleado se desequilibra hacia el lado del empleado.

No hace falta estar en el mundo de la tecnología para ver que lo que ocurre hoy en día no es normal.

¿Comparado con qué?

Comparado con lo que ocurre en el resto de la sociedad.

Haz unas cuentas rápidas con la Guía Salarial de Hays 2023 [10], el Informe de Tendencias Salariales de Randstad Research [11], el Estudio de Remuneración 2023 de Michael Page [12] y el informe de Salarios en tecnología de Manfred [13]. Verás que un desarrollador que programe en JAVA y tenga de 5 a 10 años de experiencia, cobra de media 52.000€.

Con este dato, podemos hacer dos cosas. La primera, saber cuánto le cuesta a la empresa, es decir, obtener la certeza de lo que se va a pagar por tener a esa persona en plantilla: 68.718€ con la calculadora de coste empresa de Factorial [14]

La segunda es saber cómo se compara ese salario con la realidad económica de España. El comparador de ElDiario.es [15] con datos de la Agencia Tributaria de 2021 dice que una persona con entre 5 y 10 años de experiencia (si empezó a trabajar con 24 años tiene entre 29 y 34) y que cobra de media 52.000€ está en el percentil 93.

Es decir, el 93% de los españoles ganan menos. Por edad, se sitúa en el 5% de los españoles que más ganan.

Estar en el percentil 93% o en el 95% no es lo normal.

La Inteligencia Artificial nivela asimetrías

Porque tampoco es normal es un contexto donde el que el ofrece el empleo está en desventaja sobre la persona que lo acepta. Al fin y al cabo, el que ofrece el empleo es el que asume el riesgo.

El riesgo de saber que tiene que pagar a la persona (parte real de la cuenta de resultados) con la esperanza de que ese dinero invertido en la persona le genere beneficio (parte imaginaria de la cuenta de resultados).

Lo veo indeseable para el que asume el riesgo.

En un ciclo como el que vivimos, los empleados tienen más opciones que los empleadores. Pueden elegir. En el mundo de la tecnología están los salarios en los percentiles más altos de las tablas. También todo tipo de beneficios, desde teletrabajo, ayudas para idiomas, formación certificada, más días de vacaciones, medidas para fomentar el bienestar personal y mental. Hay empresas como Good Rebels que han implantado la jornada laboral de 4 días [16]

¿Para qué?

Para aumentar las opciones del empleador. O sea, para conseguir atraer personas.

No sólo atraerlas, también a ser posible para que se queden.

A cambio, las personas que trabajan en áreas de Personas, Talento y Cultura manifiestan lo difícil que es contratar. En general, transmiten la asimetría externa del empleado con más opciones que el empleador, y la asimetría interna que se crea en una organización donde unas personas tienen unas condiciones, y otras personas, el resto, tienen otras.

Orgchart

La asimetría en una empresa cae desde arriba

La asimetría es lo peor que hay en una empresa, es uno de los principales factores para hundir su cultura. Significa que las personas no son iguales ni tienen los mismos derechos y obligaciones. Hay un pequeño grupo con un privilegio por ser “más necesarias” para el negocio, y eso transmite al resto el mensaje inequívoco de ser “menos necesarios”.

A nadie le gusta que le recuerden que es menos necesario.

Sabéis que yo no soy especialmente fan de Elon Musk pero lo expresó en junio de 2022 [17] cuando dijo que los empleados de Tesla debían pasar al menos 40 horas de trabajo a la semana en la oficina, que es “menos de lo que se pide a los empleados de las fábricas”.

Por una parte tenemos empresas, que aplican de manera racional y sistemática la reducción de costes; y por otra, una asimetría entre oferta y demanda, que hace que los empleadores tengan menos opciones y que los empleados estén en los percentiles más altos de los salarios, con mejores condiciones que el resto de sus compañeros.

Me pregunto si habrá alguna tecnología que amplifique y mejore las capacidades y la productividad de las personas.

Una tecnología que pueda equilibrar la balanza del lado de la empresa.

¿Por qué del lado de la empresa?

Porque el empresario es el asume el riesgo. Es el que paga.

Y el que paga elige.

Si tiene opciones.

Mi pronóstico es que va a llegar un día, además va a ser pronto, lo mido en meses por no decir semanas, en el que la Inteligencia Artificial, que diseña, programa, compila y depura, y tiene un fee mensual en torno a los 10$ va a hacer que un programador con menos de 2 años de experiencia pueda tener un rendimiento equivalente a la de otro con entre 5 y 10.

Se que habrá mucha gente que pensará “¡Claro! Y uno de entre 5 y 10 la capacidad de otro de entre 10 y 15”.

Es que esa no es la cuestión.

Lo cierto es que un día, un empresario podrá elegir entre una persona que según los informes de antes tiene un sueldo medio de 30.600€ y le cuesta 40.537€, y un fee mensual de 10$; y otra que le cuesta un 70% más.

Decisiones equivalentes a las de instalar cajeros automáticos, cerrar oficinas o poner robots en call centers.

¿A quién va a elegir de forma racional, pensando en la eficiencia y la rentabilidad?

Temo que esta vez, la tecnología se va a volver en contra de los técnicos.

Redux

Una versión más ligera de este artículo se publicó en Ethic el 19 de octubre de 2023.

Referencias

[1] https://www.wsj.com/articles/SB10001424053111903480904576512250915629460

[2] https://www.goodreads.com/book/show/22616127-exponential-organizations

[3] https://en.wikipedia.org/wiki/Interactive_voice_response

[4] https://www.wired.com/1994/01/microserfs/

[5] https://www.imdb.com/title/tt0151804/

[6] https://www.imdb.com/title/tt0487831/

[7] https://deming.org/explore/pdsa/

[8] https://deming.org/explore/fourteen-points/

[9] https://www.investopedia.com/terms/d/dotcom-bubble.asp

[10] https://guiasalarial.hays.es/

[11] https://www.randstadresearch.es/tendencias-salariales-2023/

[12] https://www.michaelpage.es/prensa-estudios/estudios/estudios-de-remuneracion

[13] https://www.getmanfred.com/blog/salarios-en-tecnologia-2023-espana

[14] https://factorialhr.es/calculadora-coste-trabajador

[15] https://www.eldiario.es/economia/comparador-salarios-espana_1_10548632.html

[16] https://www.goodrebels.com/es/rebelthinking/un-ano-trabajando-4-dias-a-la-semana-que-dicen-los-datos/

[17] https://www.theverge.com/2022/6/1/23149784/elon-musk-tesla-remote-work-leaked-email-40-hours

La pregunta por la Inteligencia Artificial Generativa

Tiempo de lectura: 3 minutos (nivel hilo de tuiter)

Este post es una reflexión sobre la naturaleza de la poiesis en la época digital, al hilo de una imagen que se volvió viral a finales de marzo de 2023. La imagen representaba al Papa Francisco paseando con un plumas blanco estilo Balenciaga, publicada en Reddit por el usuario «trippy_art_special» y generada con Midjourney.

The Pope Drip

The Pope Drip por Reddit / u/trippy_art_special (usuario eliminado)

Me pregunté si una obra generada por Midjourney, capaz de revelar una verdad, una emoción, la esencia de una idea, y generar un debate en la sociedad estaba cumpliendo la función del arte como desvelamiento.

Y sobre esa pregunta escribí un breve ensayo, que se llama «La pregunta por la Inteligencia Artificial Generativa«, así, como si sólo hubiera una, pero es mentira, porque hay cosa de veinte, que las he contado:

¿Hay sitio para la creatividad en la era de la inteligencia artificial generativa?
¿Qué es la poiesis y por qué es importante?
¿Por qué es necesario usar las manos para crear?
¿Por qué pensamos que el arte es la forma más elevada de creatividad?
¿Qué quiere decir que el artista desvela una verdad y al hacerlo se desvela a sí mismo?
¿Una imagen generada por inteligencia artificial desvela una verdad?
¿Hay voluntad en la inteligencia artificial?
¿A qué voluntad responde la inteligencia artificial generativa?
Si un ser humano quiere desvelar una verdad que ha imaginado, ¿es relevante que lo haga él mismo con sus propias manos?
¿Por qué recelamos de que lance al mundo su imaginación a través de una IA?
¿Por qué no queremos que un algortimo sea otra herramienta para nuestra poiesis?
¿Quién determina que la forma aceptable es una herramienta en la mano?
¿Qué es el aura de una creación? ¿Existe en el siglo XXI?
¿Dónde está la autoría en la Inteligencia Artificial generativa? ¿Y la causalidad?
¿Podemos encontrar una visión más inclusiva del proceso creativo que reconozca las formas que podemos crear en nuestros tiempo?
¿Por qué es importante una herramienta en la mano?
¿Y si hemos trascendido la esencia del arte?
¿Y si la inteligencia artificial generativa es la forma en que algunos humanos podemos revelar nuestra verdad y revelarnos a nosotros cuando lo hacemos?
¿Y si la creatividad artifical es lo que habilita que desarrollemos nuestra creatividad humana?

Estas preguntas que me hice me han llevaron a recorrer un sendero de pensamiento en torno a 3 ideas principales:

  1. Que los seres humanos tenemos la capacidad de imaginar, creamos ideas que somos capaces de verbalizar (o no), pero algunos de entre todos los humanos, no todos, sólo algunos con un «don», han sido capaces hasta ahora de hacer verdad sus ideas a través de una creación que dota de un medio físico a su idea (una escultura, una pintura, una melodía…)
  2. Si la técnica con la que creamos se adecúa y evoluciona a lo largo del tiempo, según evolucionan las herramientas que tenemos disponibles; o la forma en que mejoramos el uso de las herramientas que ya estaban disponibles; o aparecen nuevas herramientas.
  3. Si la Inteligencia Artificial Generativa, una herramienta tecnológica que crea textos, imágenes o vídeos, a partir de la Voluntad de un usuario para representar las ideas que tiene en su mente, se puede aceptar como una forma de poiesis del siglo XXI.

De lo que se podría pensar entonces si la Inteligencia Artificial Generativa es una herramienta que permite a los seres humanos desvelar sus verdades y compartirlas con el resto, y por tanto, mejora porque amplifica o complementa a aquellas personas que hasta ahora no han encontrado un «don» para hacer materiales las ideas de su imaginación.

Y dos contra-argumentos principales:

  1. Qué convierte en creador a una persona y si es el hecho de materializar por sí mismo con sus propios medios su idea concebida. ¿Un procesador de textos, o una tableta de diseño, o una mesa de mezclas son aceptables para convertir a un humano en creador?
  2. Y por qué la forma en que se materializa esa creación tiene que ser con una herramienta en la mano, cuando ya hemos aceptado en el siglo XXI la creación digital, herramientas que no transfieren a la materia si no a lo digital.

El artículo entero lo puedes leer en la revista Ethic:

https://ethic.es/2023/09/la-pregunta-por-la-inteligencia-artificial-generativa/

Seguro que me faltan muchas preguntas, sobre todo las tuyas.

En el Metaverso, la Experiencia es la Evidencia

Aproximarse a una nueva tecnología es como pelar una cebolla, tienes que hacerlo por capas y sabes que en algún momento se te van a saltar las lágrimas. La tecnología nunca ha sido la respuesta, nunca ha sido un fin en sí misma, eso es algo que todos los que trabajamos en innovación y en tecnología tenemos claro. Es un medio. ¿Para qué? Para resolver problemas.

Me gusta la metáfora de la innovación por oleadas, oleadas de olas del mar, digo. Una innovación exitosa reemplaza la alternativa existente, y permanece mientras no llegue otra que la reemplace. ¿Por qué la reemplaza? Pues porque ofrezca una solución «mejor» al problema. El carro con tracción animal fue la solución que el ser humano encontró al transporte de mercancías en el segundo milenio antes de Cristo. Aquello aguantó cuatro mil años, hasta que fue reemplazado por vehículos con motor. Lo mismo que el arado y el tractor. Aún así, la FAO sigue recomendando la tracción animal [1] como alternartiva para la agricultura sostenible, y estimaba que en 2013 había en el mundo 400 millones de animales involucrados en la agricultura [2], sobre todo en Asia, India, Latinoamérica… Por cierto que acabo de ver que en USA hay sólo 13 millones de camiones en circulación, osea que remplazar, lo que se dice remplazar… [14]

A veces se nos olvida que aceptamos la innovación cuando resuelve mejor los problemas. No cuando es la alternativa que ha encontrado una empresa para seguir creciendo. Ese es el principio de la Miopía de Marketing [3] que propuso Theodore Levitt en… ¡¡1960!! Lo que pasa es que nos pensamos que las ideas que alguien tuvo en los años 60 ya no aplican a los negocios digitales del siglo XXI. Así pasa, claro.

Por eso es importante recordarlo de vez en cuando. Quizá la forma más honesta de abordar la cuestión del Metaverso, como la del Blockchain o la de los NFT, o la de las IA que crean imágenes o que programan código, sea a través de tres preguntas sencillas, que para mí son siempre las mismas. Y tratar de aplicar la honestidad y el pensamiento crítico para responderlas.

¿El Metaverso reemplazará o complementará? Yo digo que complementará. ¿Cuándo? Cuando responda a las tres preguntas.

Neil deGrasse Tyson

¿Se puede hacer?

La primera pregunta es la de la factibilidad. ¿Se puede hacer? Vivimos rodeados de avances tecnológicos, sin embargo muchas veces su madurez o capacidad real de fabricarse de manera industrial, o de llegar a los consumidores, es limitada. La pregunta de la factibilidad hay que responderla intentando a ser posible obviar los intereses del mercado. ¿Ah, pero que el mercado tiene intereses? Claro, hay un montón de gente invirtiendo un dineral en construir Metaversos, y lo están haciendo porque quieren obtener más dinero a cambio. En eso consisten las inversiones.

¿Es factible construir un Metaverso? Bueno, dependerá de lo que entendamos por un Metaverso. Ante una definición general que defina el Metaverso como «un entorno de Realidad Virtual o Realidad Aumentada que permita la conexión y la interacción de sus miembros», la respuesta es sí. El Metaverso es factible. Ya lo era cuando se lanzó Second Life en el año 2003.

¿Es factible crear gafas inmersivas de Realidad Virtual? ¿Controladores hápticos? Ya están inventados y se pueden comprar en cualquier parte. Hay empresas que incluso han desarrollado sistemas que permiten reproducir olores [4] y sabores [5]. Osea que sí. Pero eso ya sabíamos que era lo fácil.

¿La gente lo puede comprar?

Ahora bien, ¿son accesibles? Esa es la segunda pregunta. Con una derivada. ¿Y la gente que lo puede comprar lo hace? Para mí la clave que determina la capacidad de tracción de una tecnología es lo fácil que resulta su aceptación y adquisición por los usuarios a los que va dirigida.

Siempre me gusta trasponer conceptos tecnológicos al mundo del gaming, porque sabemos que es un contexto en el que coinciden:

  • innovación tecnológica.
  • gente joven dispuesta a aceptar cosas nuevas que pueden experimentar.
  • grandes inversiones, y grandes cifras de negocio.

¿Qué pasa en el mundo del Gaming con la Realidad Virtual? Uno podría pensar que el mundo del gaming es el exponente máximo de la VR. Los consumidores se dedican a vivir nuevas experiencias (ser futbolistas, ser pilotos de carrera, ser superhéroes, ser commandos, ser fontaneros…) Así que, tiene sentido pensar que los consumidores están listos para vivir experiencias inmersivas en masa.

Veamos las ventas de equipos de VR de Sony Playstation. Lanzados en 2016, hasta finales de 2020 se habían vendido 5 millones de unidades. Es la última cifra oficial que liberó Sony [6]. En ese mismo periodo de tiempo, de 2016 [7] a 2020 [8] se habían vendido 53 millones de consolas PS4. A mí esto ya me parece un dato muy interesante.

Que una tecnología innovadora, factible y accesible solo haya sido elegida por el 9% del mercado potencial me hace pensar en la siguiente pregunta.

¿Mejora la experiencia actual?

Y esta última pregunta es para mí la más importante. La que siempre se olvida, en la que nunca se piensa, y es la que como innovadores requiere, desde mi punto de vista, la aproximación más honesta. Porque supone aceptar que la factibilidad o accesibilidad de la innovación es lo de menos, pese a que son conceptos tentadores. Y nos lleva a entrar en un terreno tal vez más espinoso. ¿Esa tecnología mejora la experiencia que ya existe?

Para mí es la clave de cualquier innovación tecnológica. La tecnología no es la respuesta, es el medio para resolver un problema. Recordemos las oleadas. Aquellas olas de innovación que mejoran la experiencia previa se implantan y se mantienen, y sólo son reemplazadas por la siguiente ola que las mejora.

Henry Ford y los caballos

Henry Ford pensaba que las personas querían caballos más rápidos

Los vehículos con motor de explosión mejoraban la experiencia de la tracción animal porque llegan más lejos, pueden llevar más mercancías, no se cansan y vas sentado en un asiento con respaldo. Incluso hay «asientos de atrás». Y vale, son más rápidos. Pero en la India, dos terceras partes de los campos de cultivo siguen usando la tracción animal [9]. ¿Por qué? Imagino que para los pequeños agricultores locales es más barato y accesible. Osea que sigue siendo la forma más adecuada de resolver su problema de ganarse la vida.

Al final, las necesidades y por tanto los problemas, son siempre los mismos, lo que va cambiando es la forma de resolverlos. La televisión mejora la experiencia de la radio; la prensa online mejora la experiencia de la prensa impresa; y el streaming mejora la experiencia del CD, que mejora la experiencia de la casete. El vinilo está de vuelta porque hay personas que pensamos que el streaming no mejora la experiencia del vinilo.

¿Qué experiencias mejora el Metaverso?

El Educaverso

Este artículo lo preparé hablando del sector educativo. ¿Puede el Metaverso mejorar la experiencia educativa? ¿Tiene capacidad de hacerlo de manera masiva? ¿Será algo puntual, complementario? ¿O no será?

Yo creo que complementará. Y que ese rol complementario no justifica ni la inversión ni el ruido que están haciendo. Por tanto, yo elegiría ser muy cuidadoso a la hora de poner ahí mi dinero.

Para explicaros mi razonamiento, quiero compartir dos ejemplos concretos que he vivido en primera persona.

En mi etapa de Chief Innovation Officer de SNGULAR, teníamos un caso de éxito espectacular en el Studio de Fernando Rada [10]. Centrado precisamente en el uso de Realidad Virtual en entornos formativos. Resolvía un caso muy concreto, de una forma mejor que la que había hasta entonces. Se trataba de una formación especializada para técnicos. Tenían que resolver unos ejercicios con componentes electrónicos y circuitos, y para hacerlo tenían que usar un dispositivo físico: un maletín que tenía los componentes necesarios para hacer los ejercicios. El número de personas que podían formarse al mismo tiempo estaba limitado por la disponibilidad de los maletines de formación, que debían además mandarse de un sitio a otro según la localización de las personas. Cada vez que se diseñaba un nuevo componente, había que volver a fabricar los maletines. La Realidad Virtual permitía que esos ejercicios se pudieran hacer con una Playstation 4 en cualquier sitio. Como había más PS4 que maletines de formación, y salían más baratas, el número de personas que podían hacer la formación al mismo tiempo crecía. Y ante una release de un nuevo dispositivo, no había que cambiar hardware sino software. La nueva experiencia mejoraba la anterior.

Ahora en IRONHACK estoy más cerca del mundo de la educación. El método Bootcamp no deja de ser una experiencia formativa; es un acercamiento práctico e inmersivo al aprendizaje, en este caso, de la tecnología. Partiendo de las competencias y capacidades que se le pide a un programador junior en su primer trabajo, se ha diseñado un modelo de aprendizaje en equipo, presencial y remoto. La experiencia de 9 semanas de práctica para aprender a programar, diseñar o analizar datos, mejora claramente otras alternativas, y ofrece a los alumnos un contexto de esfuerzo compartido que les permite crear relaciones y estrechar lazos. La presencia del equipo docente formado por un Lead Instructor y dos Teacher Assistants, que les acompañan durante esas 9 semanas, es fundamental para que lo terminen.

¿Mejorará esa experiencia el Metaverso? Reformulo la pregunta. ¿Cómo puede el Metaverso mejorar la experiencia de aprender a desarrollar software? Sinceramente, ahora mismo dudo que pueda. Hoy en día seguimos programando como cuando se empezó: escribimos las instrucciones que queremos darle a un compilador o a un intérprete, para que las ejecute a ver qué pasa.

Bueno, me diréis, pero también hay formación remota. ¿Puede el Metaverso mejorar esa experiencia? En el momento en que le pedimos a una persona que haga dos cosas contradictorias, estamos perdidos. No puedes estar programando con tu teclado y ratón y tu editor de código, y al mismo tiempo conectado en un Metaverso, y menos con gafas de realidad virtual. ¿Puedes tomar apuntes mientras estás metido en el Metaverso? ¿Puede ser mejor interactuar con avatares en un entorno inmersivo que hacer una videollamada? ¿Puede ser mejor hablarle a un avatar que a un profesor? ¿O compartir un problema con un avatar que con un ser humano? ¿Tú qué prefieres? Si no es una experiencia mejor para la persona, la rechazará.

Exacto, la tecnología puede mejorar una experiencia, pero también puede empeorarla.

La manía de las cosas que persisten

La pregunta de si una tecnología mejora la experiencia existente tiene una coda adicional, que además de relevante, la considero clave para hacer cualquier trabajo de prospectiva de Futuro. Entronca con el pensamiento de Taleb [20], uno de mis filósofos de cabecera. Es la que tiene que ver con lo fácil o difícil que es mejorar algo para reemplazarlo. Con su capacidad de perdurar y sobrevivir a los cambios. La antifragilidad. Hay tecnologías que se resisten a morir. Que crisis tras crisis, ciclo de cambio tras ciclo de cambio, revolución tras revolución, persisten. Osea que algo debe haber ahí.

Hay experiencias que no están superadas. Comer con cubiertos. Dormir en una cama. Pasar las páginas de un libro. Montar en bicicleta. Sentarte en una silla. Hay que estar muy seguro, y ser muy humilde, para querer mejorar algo que lleva con nosotros tanto tiempo.

La Silla de Hatnefer

La Silla de Hatnefer se diseñó en el 1492-73 Antes de Cristo

Fijaos en el diseño de la Silla de Hatnefer [11], datada en torno al mil cuatrocientos y pico antes de Cristo. Y fijaos en la silla para la terraza que estuve viendo este verano. En 3.500 años hemos añadido los reposabrazos. Sí, vale, es una exageración. Los egipcios ya diseñaban sillas con reposabrazos [12].

La idea de un profesor que tiene un conocimiento que compartir, y padres que llevan a sus hijos a que se lo enseñe, está documentada en la Academia de Platón en el siglo IV antes de Cristo [13]. El ser humano ha perpetuado esa experiencia de aprendizaje durante más de 2.300 años. Cómo enseñe el profesor, es otra cuestión. Los materiales que use. Eso claro que ha ido cambiando.

Hay otras actividades esenciales para el aprendizaje que han persistido. Tomar apuntes, dejar por escrito lo que alguien ha entendido, para pensar sobre ello, y elaborarlo de nuevo con sus propias palabras. Hacer trabajos. Gorronear trabajos y apuntes. Etc.

Estas experiencias no han sido superadas todavía, y quizá es en lo alguien que quiera llevar el Metaverso al mundo educativo debería pensar. No en la factibilidad. No en la accesibilidad. Si no en si realmente mejora la experiencia existente.

Una de mis anécdotas favoritas, que levanto en este tipo de reflexiones, es el mítico Mitin de Gaspar Llamazares en Second Life, en mayo de 2007 [14]. Por favor, no entendáis este comentario como una forma de cuestionar ideas políticas, en este blog no se habla de política. Imagino que por algún motivo alguien del equipo de campaña pensó que sería buena idea organizar un mitin en Second Life, porque estaba de moda y había hype. Total que lo hicieron, y se conectaron entre 80 y 89 personas. Y alguien, seguramente de una agencia de medios, dijo que 90 personas en Second Life eran el equivalente a 10.000 personas en la vida real. No me jodas.

Llamazares en Second Life

Gaspar Llamazares da un mitin en Second Life en 2007

Ya he dicho que en mi blog no se habla de política. Pero yo he estado en mítines de Julio Anguita. No se me ocurre ningún motivo por el que pueda ser mejor experiencia ir a un mitin en un mundo virtual que en persona. Si ibas a las fiestas del PCE además comías bocadillos de chorizo frito y patatas bravas, bebías minis de cerveza y siempre había un concierto de Sabina o de los Suaves. En todo caso, lo mejoraría porque no puedas ir. Y aún así, si no puedes ir, seguro que es mejor escuchar a tu político inspirador de referencia por la radio o verle por la tele.

Ahora pasan por mi LinkedIn post de personas que están buscando los casos de uso del Metaverso. Tienen la solución, ahora sólo les falta encontrar el problema. ¿Os suena esto? Es lo mismo que el blockchain. Han pasado ya 6 años desde que Don Tapscott publicase uno de los libros más fusilados en conferencias y ensayos [15]. Lo cierto que es que para lo único que ha servido el blockchain es para que unas pocas personas se hayan hecho muy ricas, y decenas de miles hayan perdido sus ahorros. Por favor, decidme que hay algo más que eso.

Cada vez que leo a personas que han organizado clases o conferencias en el Metaverso me acuerdo del bueno de Gaspar. La experiencia de ir a una conferencia online es terrible. Yo desde que acabó la pandemia no he vuelto a ir a ninguna. Es más, si me invitan a hablar en una conferencia online tiendo a declinar cortesmente. La mejor experiencia para escuchar a alguien que tenga algo interesante que decir es estar delante de él. Y luego tomarse muffins en donde el café para comentar con la peña. Por favor, que alguien me demuestre lo contrario.

¿Podrán las conferencias en el Metaverso remplazar las conferencias en persona? Mi teoría es que no. Las ciudades-estado griegas ya tenían el Ágora como un diseño arquitectónico específico, diseñado para la reunión de las personas. [16] Siempre que tengamos alternativa de reunirnos en persona, lo preferiremos antes que reunirnos en el Metaverso.

VoiceXMeetUp

Lo mejor de organizar VoiceXMeetup fue la gente Top que conocí

Incluso he llegado a leer artículos explicando la gran oportunidad que el Metaverso ofrece a las Bibliotecas. Vamos a ver, ¿me puede alguien explicar cómo va a mejorar la experiencia de leer un libro en papel en el sofá de tu casa, hacerlo en el Metaverso? Año tras año, las ventas de libros electrónicos están por debajo del 5% según el informe de la ONTSI [17]. Permitidme que me moje y diga que cualquier proyecto de leer libros en el Metaverso va a ser un fracaso.

¿Y el cine? Por favor, buscad qué ha pasado con las televisiones 3D. Y por favor, buscad qué ha pasado con las películas 3D. Ay Diosito, pero si yo fui al estreno de Avatar en el Heron City a verla en 3D. ¿Alguien se acuerda de esto del cine en 3D?

¿Entonces?

Entonces, si no se mejora la experiencia, a lo mejor todo se reduce a otra cosa.

A la siguiente vuelta de tuerca de un modelo de negocio que consiste en que haya gente que se registre, les mantengamos enganchados, les analicemos, y vendamos sus datos. A las empresas para que hagan publicidad, y a los políticos para que hagan campañas.

Facebook Monthly Active Users

Vaya. ¿Y ahora qué hacemos para crecer en USA y Europa? [19]

Que es completamente legítimo porque para eso alguien está metiendo dinero a espuertas. Pero pensemos si eso es lo que necesitamos las personas o lo que necesita la empresa que sólo ha encontrado esta salida para seguir creciendo.

Sería una pena que el Metaverso se quedase en eso.

Por eso decía lo de las lágrimas.

Referencias

[1] https://www.fao.org/teca/es/technologies/8683

[2] https://agris.fao.org/agris-search/search.do?recordID=FR2017104738

[3] https://hbr.org/2004/07/marketing-myopia

[4] https://ovrtechnology.com/

[5] https://www.cmu.edu/news/stories/archives/2022/may/haptic-virtural-reality.html

[6] https://www.sie.com/en/corporate/release/2020/200107.html

[7] https://www.forbes.com/sites/olliebarder/2017/01/05/the-ps4-has-now-sold-53-4-million-units-worldwide-with-6-2-million-sales-over-the-2016-holidays/?sh=3b89f8657b41

[8] https://fortune.com/2020/01/07/best-selling-video-game-console-playstation-4-sales-ps5-ces2020/

[9] https://www.researchgate.net/publication/296626595_Relevance_of_draught_cattle_power_and_its_future_prospects_in_India_A_review

[10] https://studios.sngular.com/es/vr-ar-immersive/

[11] https://www.metmuseum.org/art/collection/search/543868

[12] https://egypt-museum.com/golden-throne-of-tutankhamun/

[13] https://es.wikipedia.org/wiki/Academia_de_Atenas

[14] https://elpais.com/elpais/2007/05/13/actualidad/1179044223_850215.html

[15] https://blockchain-revolution.com/

[16] https://es.wikipedia.org/wiki/%C3%81gora

[17] https://www.ontsi.es/es/publicaciones/Informe-Anual-del-sector-de-los-Contenidos-Digitales-en-Espana-2020

[18] https://www.bts.gov/content/truck-profile

[19] https://social-stand.com/facebooks-2021-report-shows-huge-decline-in-daily-active-users/

[20] https://www.fooledbyrandomness.com/

Hay una versión resumida de este post en el especial Educación y Metaverso de EDUCAWEB.

 

El Triunfo de Moss

Tiempo de lectura: 9 minutos y medio

Hello, IT.

La puerta del ascensor no se abre del todo cuando llegas al sótano. Las luminarias parpadean, hay chorros de vapor y se oye de fondo el ruido de unas máquinas. ¿Qué máquinas? Cualquiera. Las de mantenimiento. Al final de un oscuro pasillo se llega a una habitación sucia y desordenada, donde cajas de cartón vacías, moldes de poliespán, monitores, teclados, discos duros y cables se amontonan en estanterías de metal. Los esqueletos de torres de sobremesa se alzan entre pilas de papeles, repisas y archivadores, una suerte de cementerio donde van a morir los navíos que naufragaron en el mar de los sargazos. Los pocos espacios libres que hay los ocupan figuras de colección de series de manga y superhéroes. En esa sala malviven «los informáticos».

“Nadie nos respeta ahí arriba. Nadie. Nos tratan como esclavos.”

Es el 3 de febrero de 2006. Se acaba de estrenar “The IT Crowd”. La serie que muestra la vida de los informáticos de una corporación multinacional de inversiones. La serie en la que dos desgraciados, el cínico Roy y el introvertido Moss, hacen de estereotipo del ingeniero informático. Personas que han fracasado en sus relaciones sociales y en su vida profesional, con un trabajo alienante donde no hay aprendizaje, ni proyección ni carrera. Mal remunerado y sin prestigio. En una empresa que les considera un mal necesario con el que hay que convivir. Jen, la nueva Directora del Departamento de IT, no sabe de ordenadores, pero sabe de personas. Encuentra su lugar en el equipo porque es capaz de servir de paraguas y canalizar el descontento del resto de los empleados hacia el equipo de sistemas.

Las personas que trabajabámos en tecnología en febrero de 2006 se dividen en 2 categorías: las que se sentían identificadas con los protagonistas de IT Crowd, y las que no veían esa serie.

¿Has probado a reiniciarlo?

En marzo de 2022, la demanda de profesionales digitales supera ampliamente la oferta. Conseguir cubrir las vacantes en los proyectos es algo que literalmente quita el sueño a responsables de áreas de People y Tecnología por igual. Da igual con quién hables, no hay gente.

Sólo las catástrofes naturales como la Pandemia de Covid-19 o desastres como la Guerra de Ucrania pueden llegar a suponer un pequeño freno a la escalada, pero a qué precio. Cada vez hacen falta más profesionales. En un mundo digital, lo que limita el crecimiento de las empresas no es la falta de clientes, la falta de inversión o la falta de oportunidades. Es la falta de profesionales para hacer los proyectos.

Es un problema global, que se puede encontrar en los países occidentales por igual. En nuestro mundo conectado, la demanda es global y la oferta es global; y por eso los mercados laborales se vuelven globales y líquidos. Todos hemos oído hablar de alguien que vive en una capital de provincia de (ponga aquí cualquier comunidad autónoma y acertará) con un salario de Sillicon Valley.

De repente nos hemos encontrado con una serie de problemas que ya no parecen ser coyunturales, sino que se han convertido en estructurales.

El problema de la selección

Cada vez es más caro contratar a “los informáticos”. No sólo en términos directos (salario). También en esas cosas indirectas o intangibles como son las condiciones, la cultura de la empresa, o los proyectos. Hay tantas oportunidades que los profesionales pueden elegir. ¿Quién elegiría trabajar en un sótano mierdero y mal ventilado? Malas noticias para Reyholm Industries.

Hoy es 27 de marzo de 2022 y me sorprendo cuando escucho a personas lamentarse de que sus desarrolladores se marchan porque en otras empresas “les ofrecen cosas como el teletrabajo”. Con dos años de Pandemia a las espaldas, ¿realmente te puedes permitir dejar salir a profesionales digitales por no tener una política de teletrabajo? Ahí hay mucho camino que hacer, cuando los profesionales pueden elegir, tu competencia ya no son el resto de empresas de tu sector. Tu competencia es cualquier empresa en la que un profesional digital podría querer trabajar. Básicamente, todas. Incluso la que funde él mismo.

El tema de las condiciones es algo que por suerte para los trabajadores, tiende a “igualarse por arriba”. Cosas como la jornada intensiva en verano, la inversión en formación, tener tiempo para ir a conferencias, las tardes de los viernes libres, etc., acaban por ser universales. Las damos por sentadas.

No quiero parecer frívolo, pero estamos en un sector donde ya hay empresas como Cabify que están “regalando un viernes libre al mes” o planteándose las semanas de 4 días laborables. Recuerdo cuando Paradigma Digital anunció en 2017 la Jornada de 8 a 15 todo el año. Que vale que era algo opcional y que habría que ver la letra pequeña de si estaba permitida para las personas que trabajaban en cliente, o sólo para los que están en oficina. Pero eso fue en el año 2017. Y el resto de empresas del sector lo tenían complicado para competir con eso. ¿Cómo vas a competir con tener las tardes libres para estar con tu familia, para tu toy project, o para ir a entrenar?

La empresa como aspiración

También es cada vez más habitual descubrir que el prestigio o la reputación de una empresa en su mercado ya no es algo que atrae al telanto. Que hay una desafección entre la Marca como la perciben los clientes, y la Marca como la perciben los empleados. Por eso hablamos de la Employer Branding. La reputación, en sí misma ha dejado de ser algo que atrae al talento.

Lo que atrae a las personas con talento son los proyectos y los contextos que les hacen crecer. Y eso es una combinación de varios factores, como puede ser lo retador del problema a resolver, el impacto en la sociedad que tendrá el resultado, la tecnología que se va usar, o incluso los propios compañeros. Las personas inteligentes atraen a otras personas inteligentes.

Hasta el punto que es una tendencia cada vez más aceptada asumir que los profesionales digitales trabajan en «proyectos» y no en «empresas». Yo creo que eso ya lo sabíamos en MediaNet Software en el año 2013, y de ahí nace la visión de lo que es hoy una empresa como SNGULAR.

El tiempo de contratación

Todo esto hace que el tiempo de contratación se alargue. Como hay tantas oportunidades y la gente puede elegir, los equipos de People se las ven y se las desean para mover candidatos por el funnel de atracción y selección. Todo el mundo está trabajando, todo el mundo está en varios procesos, todo el mundo quiere tener varias ofertas, y todo el mundo quiere negociar. ¿Cuánto tiempo hace falta para cubrir una vacante? ¿De 6 a 8 semanas? ¿Y cuántas vacantes tienes? ¿Cuánto hace falta para formar un equipo?

El problema del tiempo de contratación hace que los ciclos de tensión se inviertan. La tensión se traduce de los clientes a las áreas de venta, de las áreas de venta a las áreas de operaciones, y de las áreas de operaciones a las áreas de People. Recuerda: lo que limita el crecimiento de las empresas es la escasez de personas. ¿Y quién consigue las personas? Todo el peso del negocio se traslada al equipo de People, porque su responsabilidad es conseguir que entren personas.

Sin embargo, ¿en cuántas empresas el equipo de People tiene el estatus y consideración de área clave? Tener estatus y consideración de área clave significa tener presupuestos, medios y capacidad de actuación. Es ser el motor del crecimiento. Los motores del crecimiento necesitan aceite y gasolina. Lo contrario es ser un centro de coste que se tiene que eficientar. En fin, hay sitios que siguen teniendo áreas de «Recursos Humanos». Igual que hay personas que siguen usando la palabra «Recurso» para referirse a una persona.

Recurso

2. m. Medio de cualquier clase que, en caso de necesidad, sirve para conseguir lo que se pretende.

Sinceramente, si ves a las personas como medios para conseguir tus fines, no te auguro mucho éxito en tus planes de crecimiento.

La rotación

Otro factor determinante. A veces me imagino el mercado laboral como un gran esquema de robo de antenas de coche. Las personas van saltando de empresa en empresa, de manera que los huecos de una se cubren con los profesionales que salen de otra. Cuyas vacantes se cubren sacando a otros de la siguiente. Y así de vuelta al principio.

Este tipo de cambios alimentan la inflación salarial. En un proceso por el cual, el salario de los trabajadores ya no está exclusivamente relacionado con su experiencia o su capacidad de aporte a una organización, sino porque se les necesita. Yo no digo que esté bien o que esté mal, es algo sobre lo que ya escribió Adam Smith en el siglo XVIII y sigue vigente, osea que debe ser cierto.

¿Pero qué significa? Significa que ya no existe un ciclo de aprendizaje, que se ha pervertido. ¿Qué es la senioriry? ¿Y cuánto se tarda en conseguir? En la vieja escuela, habíamos asumido que existía un ciclo temporal por el cual las personas se enfrentaban a problemas, los resolvían y al hacerlo, se producía un aprendizaje. Ese aprendizaje ocurría dentro de un equipo, de acuerdo. Que los maestros enseñan a los aprendices se sabe desde los Egipcios. Igual que lo de las pirámides.

Veníamos de un contexto donde el aprendizaje estaba vinculado a la capacidad para resolver problemas, y el valor determinado por la capacidad de resolver problemas cada vez más complejos. Eso iba haciendo “crecer” a los profesionales, bien porque su aportación era mayor, bien porque podían canalizar las aportaciones del resto.

Ese crecimiento solía vincularse a conceptos como responsabilidad o contribución, con su equivalencia a un salario. No es que la demanda y la rotación estén haciendo que se inflen artificialmente los salarios. Es que están inflando las seniorities. ¿Tiene sentido que la seniority de una persona aumente porque haya cambiado el nombre de la empresa que le paga la nómina? ¿Cambiar de trabajo aumenta tu capacidad de resolver problemas?

Desde luego, determina la capacidad de resolver un problema en concreto: el problema del Ser y del Estar. Eres un profesional digital y un día día te incorporas a una empresa; y alguien deja de tener el problema de la vacante sin cubrir. Puede que a cambio haya creado otros problemas. Puede que esté alimentando el problema de la asimetría en los salarios de la plantilla, en el que las personas que vienen tienen mejores condiciones que las de las personas que ya estaban. Como ocurre con los clientes de operadoras de telefonía. O el problema de poner a personas en posiciones para las que no están preparadas, y el impacto que tiene eso en la calidad.

Pero es lo que ocurre. Son las reglas del mercado. Y a eso es a lo que tenemos que jugar. Ahí fuera hay un montón de empresas compitiendo por las personas con talento, y cada vez que una empresa anuncia que va a crear miles de puestos de trabajo, o que va a implantar la semana de 4 días, todo se tambalea. ¿Es sostenible? ¿Es pensamiento a largo plazo? ¿Y a dónde nos lleva?

El Triunfo de Moss

Según por dónde lo mires, puedes pensar que estamos en una época maravillosa para trabajar en tecnología. También puedes verlo como un drama. El drama de tener inversiones aprobadas que no se pueden poner en marcha porque no están las personas que las hagan.

El crecimiento de los costes directos e indirectos de la contratación, unido a la dilatación de los tiempos de contratación tienen un impacto directo en los ciclos de rentabilidad de las inversiones. Las condiciones en las que se aprobaron no tienen nada que ver con el resultado, conceptos como rentabilidad o TIR se van al garete.

Es genial que todo apunte a que entramos en un ciclo donde los CEO de las empresas serán ingenieros, que vengan de las direcciones de tecnología; y no tanto de la dirección comercial o de la dirección de financiera. Carlos Torres, Presidente de BBVA es Ingeniero en Electrónica por el MIT y fue director del área de Banca Digital antes de ser Consejero Delegado. Los modelos de negocio digitales, los canales digitales, las operaciones digitales… Cada vez más los ingresos y la eficiencia en las operaciones requieren personas que las comprendan y las lideren.

Las competencias tecnológicas son hoy en día lo que estudiar inglés era en los años 90. Nadie duda que una carrera profesional de éxito requiere hablar inglés, aunque sorprendentemente en España el nivel de inglés es más bien tirando a bajo. En un mundo en el que la tecnología va a seguir siendo un habilitador de los negocios, la necesidad de adquirir competencias digitales va a ir a más.

Pero ahora en serio. ¿Cuántos años llevamos hablando de esto? ¿No estáis aburridos ya? Yo sí. He conseguido trazarlo hasta abril de 2013, cuando en Estados Unidos se rechazaba que hubiese un problema de escasez de perfiles STEM. Me resulta curioso que el motor de la economía mundial se haya convertido en un mercado de escasez. Con problemas de escasez y modelos de gestión de escasez. Se ha consumado el triunfo de Moss. Todos te quieren, Moss. Todos te respetan, Moss. Eres el Centro del Universo.

¿Dónde nos lleva esto? Para saber a dónde nos lleva, quizá sea bueno pensar de dónde viene. Tal vez se nos ha olvidado que en el año 2006, veníamos de algo que se llamó «La Burbuja de las Puntocom». Yo tengo todavía que pensar (y escribir) mucho sobre esto. Pero lo cierto es que esta situación yo ya la he vivido. Salarios disparados. Alta rotación. Escasez de profesionales. Y de repente crash. De repente, unos guionistas ingleses se inventan «The IT Crowd» para hacer una comedia sobre los pobres desgraciados que trabajan en informática.

Cuando ves esa serie con la óptica del año 2022, nada tiene sentido.

El mundo de la tecnología es a día de hoy un ejemplo de Océano Rojo. ¿Cómo hemos llegado a él? Quizá es que todos leemos los mismos libros, vemos las mismas charlas TED, estudiamos en las mismas escuelas de negocio, nos suscribimos a las mismas newsletter y seguimos a los mismos gurús. Por eso todos pensamos igual, llegamos a las mismas conclusiones y aplicamos las mismas soluciones. Si todo el mundo hace lo mismo, nada es diferente. En el mundo de los negocios se dice que o eres diferente o eres barato. En el de las personas, es al revés. Si no eres diferente, tienes que pagar más.

Lo que pasa es que si hay Océanos Rojos, también hay Océanos Azules. Pero estoy cansado y es tarde. Te hablaré de ellos otro día.

 

PS- Steve Miller y su banda quieren dar refuerzo positivo a todos los jóvenes y no tan jóvenes profesionales. Ante la duda, coge el dinero y corre. Sigo con mi compromiso de meter un temazo sobre el dinero en los post de la categoría «Money Talks»

La bombilla en el simbolismo de la Innovación

(Tiempo de lectura: 11 minutos)

La comunicación simbólica es una forma de expresión inherentemente propia del ser humano, porque en ella intervienen los aspectos esenciales de nuestra humanidad: la sensibilidad, la imaginación, la memoria, y la comunicación.

¿Qué es un símbolo?

Dice la RAE que un símbolo es un «Elemento u objeto material que, por convención o asociación, se considera representativo de una entidad, de una idea, de una cierta condición«. Esto ya establece de partida que en un símbolo hay, al menos, dos elementos: un «significante» (el objeto material o su representación) y un «significado» (el concepto que representa).

Otra definición de Ricoeur abunda en la importancia de la relación entre significado y significante. «Llamo símbolo a toda estructura de significación donde un sentido directo, primario y literal designa por añadidura otro sentido indirecto, secundario y figurado, que sólo puede ser aprendido a través del primero.» El significante en un símbolo tiene por tanto una realidad dual: es lo que es en sí mismo, y a la vez, es también es lo que evoca. Al significado verdadero o primigenio, el que sí está presente, se le llama «referente«. En la creación del símbolo, el referente de alguna manera tiene que ayudar o hacer de clave, para orientar o descifrar la conversión del significante en su significado simbólico.

El hombre necesita al símbolo porque le sitúa en lo empírico y lo intangible, lo que podemos ver y lo que no. El proceso de interpretación de un símbolo es mental, por tanto interior, y supone un viaje desde lo visible, lo que existe, hacia una realidad conceptual que en el significante no está necesariamente presente. De manera que es la inteligencia y comprensión humana la que hace esa transformación evocativa de convertir el significante en un nuevo  conocimiento. Podemos decir que el símbolo es un vehículo para la comprensión, y no una prueba empírica para la demostración.

Con la ayuda del símbolo, satisfacemos nuestra necesidad de visualizar y comunicar conceptos abstractos. Esto es así desde los orígenes del hombre, ya en la prehistoria con las pinturas rupestres. El símbolo se ha usado como elemento vertebreador de la historia de un clan o comunidad. El origen de los primeros símbolos están relacionados con la aparición del lenguaje, y las narrativas de los primeros clanes de cazadores/recolectores. El símbolo entonces es previo a la aparición de la escritura, y posterior a la aparición del lenguaje. Viaja con la comunidad y se transmite entre generaciones, porque permite al hombre conectar con el pasado. Y también viaja entre culturas, porque permite compartir conceptos abstractos.

Innovación en Google Images

Innovación en Google Images

Con el paso del tiempo, el lenguaje simbólico se incorpora a la cultura y la religión, y en la medida en que se fueron consolidando las civilizaciones, pasa a la arquitectura, a la alfarería, al arte y la filosofía. Esto es así porque el lenguaje simbólico es apropiado para expresar ideas, conceptos y realidades generalmente trascendentes.

¿Cómo se crean los símbolos?

La creación de símbolos es un proceso exclusivo del hombre como animal simbólico, puesto que tanto para la creación del símbolo, como para su entendimiento, es necesario reflexionar, asignar, asimilar y profundizar. Con este proceso, el ser humano se mueve desde lo concreto y objetivo, al abstracto subjetivo e interpretable. Es necesario por tanto una vivencia interior. Hoy en día todas las disciplinas que se centran en el conocimiento y la cultura utilizan símbolos, entre ellas, como no, la innovación.

En este sentido, el símbolo tiene una función de puente, entre una realidad y su significado trascendente. Sin embargo, partiendo de una misma realidad objetiva, el símbolo ofrece diferentes interpretaciones según el contexto e interés que el sujeto le atribuye, o el grupo o colectivo al que pertenece. Para Platón, el símbolo conecta con una realidad más elevada, con el mundo de las «ideas» que desarrolla en La República y Fedón. Los significantes son percibidos por los sentidos en el mundo «real», el concepto al que nos trasladan es un «universal» del mundo de las «ideas». Para Kant, un símbolo es una intuición que, a través la analogía, permite a la razón conceptualizar una idea.

Para ambos, el símbolo es la representación de un concepto ausente, porque el concepto no está de manera evidente en el significante.

El significante no sólo no está presente en el símbolo, sino que el concepto existe de manera independiente al significante. No necesariamente antes, pero sí independiente. Si quisiéramos hablar en términos temporales, diremos que primero alguien tiene la necesidad de expresar un concepto o valor; después se establece la asociación con un objeto significante; a continuación una persona acepta la equivalencia entre significante y significado; y finalmente se hace la aceptación por un colectivo.

El diseño de símbolos, iconos y memes

En el caso de un icono, se considera que es un símbolo en el que el significado sí está visible en el significante, porque hay una relación de identidad o semejanza. Utilizar un candado para representar el concepto de «seguridad» es una relación icónica porque los candados en sí mismos sirven para proteger las puertas, las cajas o las bicicletas. Sin embargo, esa relación no está presente de manera directa en los candados que las parejas ponen para expresar su amor. Ahí dejan de representar «seguridad» para representar «unión». Los enamorados están unidos mientras el candado esté cerrado, o hasta que los equipos de limpieza de las ciudades llegan con unas cizallas y los cortan.

Innovación en Flaticon

Iconos de la innovación en Flaticon

En cuanto a los memes, se acepta que son una representación simbólica en la que una imagen se utiliza en un sentido diferente al que originalmente tenía. Pero al igual que en el icono, el sentido está presente por semejanza en el propio símbolo y por eso se utiliza. El Grumpy Cat es sólo un gato, pero tiene cara de gruñón. Fry dando billetes está dando billetes. Y el clon de Eddie Murphy, tocándose la frente con una ceja enarcada, está pensando que es ingenioso.

Aunque hay consenso en que los símbolos se crean de forma más o menos inconsciente (aquí entran los trabajos de Freud, que no vienen al caso), el trabajo de diseño visual tiene una importante componente de creación intencionada de símbolos e iconos, con un sentido de utilitarismo y ayuda. El «corazón» de Instagram se usa para decir que algo te gusta, el avión de papel que vuela a su destino de Telegram, o los emojis de la berenjena y el melocotón, sin ir más lejos. En cuanto a los memes, diría que la intencionalidad se origina en la ironía y desde ahí viaja hacia la burla, el trolleo y general el mal, que nunca descansa.

En cualquier caso, los diseñadores de símbolos lo hacen de forma consciente, premeditada, y a ser posible, remunerada. Diremos que en cualquier caso, es un proceso creativo y eso ocurre en la psique, a través de la inteligencia, las emociones, la imaginación, y sobre todo, el entendimiento contextual del creador. Porque, a priori, un significante puede abrir una variedad infinita de significados, tantos como personas pueden enfrentarse a él y asociarle uno. Es decir, la asociación entre significante y significado a través del símbolo primero es creada con mayor o menor propósito, y luego es aceptada. Inicialmente, por la propia persona que establece un sentido a dicho símbolo. El creador tiene que aceptar ese sentido. Y después difundirlo.

La aceptación del significado simbólico

Es gracias a la difusión como esa nueva estructura conceptual puede ser aceptada por un colectivo. Parece por tanto que la creación puede ser consciente o inconsciente, pero diría que la aceptación por un colectivo es consciente. Esa aceptación es la que hace que muchas personas reconozcan como válidos uno de todos los posibles sentidos. Es decir, puede darse la situación de que haya una minoría de personas que piensen que el emoji del «melocotón» representa un culito respingón, cuando todo el mundo sabe que es una de las frutas más sabrosas del verano.

Así que para la difusión es necesaria una acción de comunicación, que hace que el símbolo pase de ser un puente entre un objeto real y un concepto trascendente personal, a algo compartido y tal vez identitario de un grupo de personas. Que atribuyen al mismo objeto real el mismo concepto transcendente. Y para que se asiente, además de difundirse tiene que repetirse. Lo potente del meme es que su aceptación es rápida y masiva porque se viraliza a través de las redes sociales. A los tuiteros les hace gracia, y lo comparten, y si lo reutilizan es porque lo aceptan.

Pero el proceso de aceptación tradicional de un símbolo antes de los medios y las redes sociales ha sido más lento. El significante permanece inalterable, la Cruz siempre es la cruz, y es a través de la repetición cómo el significado también llega a permanecer inalterable en la comunidad, la Resurrección es la Cruz. Por eso surgen los rituales, como la serie de acciones ceremoniales en las que un colectivo comparte y consolida la aceptación del significado de un símbolo. En un ritual religioso Católico, por ejemplo, se acepta que el Pan y el Vino se convierten en el Cuerpo y la Sangre de Jesucristo.

Parece claro entonces que a la hora de estudiar un símbolo, es necesario conocer el contexto cultural y social en el que se surge y se acepta por el colectivo. Al fin y al cabo, una cultura, no sólo social o política, también puede ser una cultura corporativa, contiene entre otras cosas su sistema de símbolos y contextos compartidos. A través del estudio del símbolo podemos acceder a ese contexto, y tratar de comprender en qué condiciones y por qué se creó.

Aceptamos bombilla como animal de compañía

Los ingleses llamaron Enlightenment («iluminación») a lo que nosotros llamamos «Ilustración», el movimiento que surge en Europa en los siglos XVII y XVIII en los que la razón y la ciencia se anteponen a la superstición y la fe. En la «Ilustración» se establece una relación metafórica (pero no simbólica) entre la ciencia «que ilumina» frente a la superstición/religición que «oscurecen» el conocimiento.

En octubre de 1879, Edison, a partir de sus trabajos previos con Swan, demostró la capacidad de generar luz con energía eléctrica usando una bombilla de filamento de carbono, que habilitaba su fabricación y distribución masiva. Consiguió la patente en enero del año siguiente. Hay imágenes de la época en las que aparecía el inventor estadounidense posando con su obra. Tenía una bombilla en la mano.

Edison y la Bombilla

Extracto del perfil de Edison en LinkedIn

La bombilla era una invención para iluminar, algo que ya se había hecho con antorchas, candiles y la lámpara de gas. En este caso, hay una traslación directa de significado implícito y demostrativo: la bombilla ilumina porque es su propósito. Sin embargo, la bombilla es en sí misma una invención, un descubrimiento científico, y por ende, ya existía un contexto previo que considera la iluminación (Enlightenment) como el triunfo de la razón sobre la superstición a través de las invenciones y las ideas. De manera que al significante bombilla se le asocia casi de manera directa y racional el sentido de la invención. Falta la parte de la difusión del símbolo.

El 16 de Agosto 1935 Paramout Pictures emitió un episodio de Betty Boop llamado «Betty Boop and Grampy». Betty recibe una invitación para ir a una fiesta en casa de Grampy, y se lleva con ella a todos los personajes del barrio (operarios, bomberos, policías… una juerga) Grampy es el arquetipo de viejo inventor chiflado de los dibujos animados: tiene un reloj de cuco con guantes de boxeo para despertarse, una mano mecánica que saluda a sus invitados y un paraguas sin tela que corta tartas en porciones perfectas. Esa clase de inventos.

En un momento dado, Betty le pide a Grampy que ponga algo de música, cosa que el hombre no tenía previsto. Lo que no dejar de ser sorprendente, porque sí tenía una lámpara de techo llena de ponche. Entonces Grampy saca del bolsillo un birrete de licenciado con una bombilla en todo lo alto. Se pone su gorro de pensar, se sienta en una silla y de repente ¡zas!, la bombilla se enciende y pita porque tiene una idea.

La bombilla de Grampy

El bueno de Grampy ha tenido una idea

En este punto, los guionistas del episodio, atribuyen conscientemente a la bombilla que ilumina un nuevo sentido, la bombilla se enciende cuando se tiene una idea; no una cualquiera, esa que resuelve un problema. Estableciendo el vínculo con la ideación y el momento «¡eureka!» que gritaba Arquímedes cuando salió corriendo desnudo de la bañera. No os vayáis a creer que pone un disco en un gramófono: inventa un robot que toca la flauta con una tetera, un ventilador y unos guantes. En ese corto de animación hay un momento en que se propone un símbolo, que es aceptado por el director del episodio, Dave Fleischer y el director de animación, Dave Tendlar. Parece que ambos ven claro que el público aceptará el simbolismo, y deciden sacar a producción el episodio.

Pocos años antes de eso, en los 20, los animadores de Felix the Cat habían incorporado otro simbolismo. Como sus cortos de animación eran mudos, dibujaban signos encima de la cabeza de sus personajes para expresar situaciones. Es un metasímbolo, por así decirlo. Un signo encima de una cabeza como expresión de las emociones, ¿cuáles? Eso ya depende del signo. En el primer corto, «Felines Follies», se usan símbolos de exclamación y duda sobre las cabezas; y en posteriores episodios, el gato interactúa con esos símbolos. En «Wrecking a Romeo», Félix utiliza uno de los corazones que proyecta sobre su cabeza como expresión de amor, para construirse un laúd con el que rondar a su Julieta.

Más allá de del debate de si podemos considerar la idea de ir al cine o ver la televisión un ritual, esos dibujos animados ayudaron a difundir el símbolo sobre la cabeza como expresión de pensamientos: la exclamación como «alerta», el interrogante como «duda» y la «bombilla» como momento ¡eureka! de la ideación.

A ver si se funde ya la bombillita…

Al fin y al cabo, un símbolo se mantiene vivo mientras constituye la mejor expresión de un concepto o idea, es decir, cuando mantiene su significado trascendente. Un mismo concepto puede expresarse a través de varios significantes, y a la vez, un mismo objeto puede significar cosas diferentes para diferentes colectivos. En el momento en que surge otra equivalencia mejor, el significado desaparece. O es sustituido, siempre en la medida que a un significante se le asocia a un nuevo significado, y el colectivo lo acepta y perpetúa.

Paradójicamente, una de las características de los memes es que, además de nacer y aceptarse de forma rápida, también desaparecen y son sustituidos a toda velocidad de manera constante, cuando se viraliza una nueva forma de representar la idea.

Sin embargo, no hay que perder de vista que el significante, como objeto o representación preexistente, tiene su propio significado inherente, que no desaparece cuando desaparece su carga simbólica. Si algún día nos hartamos de usar la bombilla para representar la innovación, no dejará de representar la iluminación, porque es su propósito primigéneo.

Lo que pasa es que 100 años después, no hemos encontrado una representación simbólica mejor para la innovación; sigue asociada al significante bombilla. No hay más que buscar en catálogos de iconos o librerías de imágenes para verlo, como en las imágenes anteriores en el post. Cuando alguien hace un ejercicio de visual thinking, una presentación de powepoint, diseña una web, etiqueta una librería de imágenes o prepara un post, el significante bombilla es el primero que se usa para referirse a la innovación.

Hay otros símbolos usados en los contextos de la innovación, que podéis ver en las capturas de pantalla, por ejemplo:

  • el cohete, que se asocia principalmente la superación y el éxito. Es una conceptualización por tanto del resultado, un proceso de innovación exitoso es aquél que da un buen resultado. Hay un sentido que aparece directamente en el propio cohete que es la velocidad o la potencia: el cohete, para lograr salir a la atmósfera y escapar del campo gravitacional de la Tierra, necesita ser capaz de propulsarse a gran velocidad. Trasladar ese concepto a una idea o a un negocio le imprime un carácter de nuevo de éxito: ese negocio va como un cohete porque está consiguiendo sus objetivos (de captación de usuarios, de ingresos, etc.)
  • las ruedas dentadas de los engranajes, que se asocian con los procesos y las metodologías. A través de los dientes, las ruedas transmiten el movimiento unas a otras, de la misma forma que en un proceso unos pasos preceden a otros.
  • y el cerebro, que se asocia con la imaginación y la creatividad. Es natural usar el cerebro como significante si aceptamos que «innovación es el uso de la creatividad para resolver un problema existente, de una manera que nunca se había hecho antes».

Mi última reflexión es si tiene sentido tratar de cambiar arbitrariamente el significante de un símbolo. Es decir, que alguien considere que está harto de usar bombillas para representar la innovación y que quiere, por ejemplo, usar un melocotón. Más allá de lo apropiada que sea la adopción de ese significante, el esfuerzo de comunicar y sustituir un símbolo tan ampliamente aceptado diría que no merece mucho la pena.

Cómo diseñar Futuros Antifrágiles

(Tiempo de lectura: 22 minutos y medio. Ya te digo)

Este es el tercer artículo que escribo sobre el tema de los Futuros Antifrágiles. Si no estás familiarizado con el concepto de la Antifragilidad, o por qué me resulta interesante incorporarlo en la teoría de Diseño Especultativo de Futuros, te invito a que te leas los anteriores posts de esta trilogía: el primero y el segundo.

En ellos he intentado recoger por una parte, por qué el diseño de futuros es una disciplina necesaria en el proceso de innovación, sobre todo, de las grandes corporaciones. Mi experiencia me dice que las nuevas ideas y los nuevos modelos de negocio, necesitan de 3 a 5 años para sobrevivir, y de 5 a 10 para volverse relevantes. Es decir que hoy estamos creando el germen de algo, un nuevo producto o modelo de negocio, que será será relevante en el futuro. Eso introduce la otra idea, si nuestra innovación ocurrirá en el futuro, deberíamos pensar cómo va a ser ese futuro. ¿Y qué sabemos del futuro? Pues esa es la primera conclusión que me gustaría compartir con mi trilogía de los Futuros Antifrágiles:

Sólo hay dos cosas ciertas sobre el futuro: no podemos predecirlo, y habrá nuevas crisis.

Diría que es normal tratar de predecir el futuro, y ya puestos, compartir con otros tus predicciones. Incluso cobrar por ello. Al fin y al cabo, el ser humano lleva haciéndolo desde que dejamos de ser primates, nos asentamos en poblados, la cosa empezó a prosperar, y entonces apareció gente (habitualmente, vieja, osea, sabia) con imaginación y tiempo libre para mirar las estrellas (o las vísceras).

Un día se me ocurrió rastrear las primeras predicciones escritas: en la Biblia tenemos unos cuantos libros de los Profetas, sin embargo están escritos en tercera persona. Es decir, un cronista cuenta las profecías de Isaías, Jeremías, etc. Pero no están escritas en primera persona, o sea, por el propio Profeta narrando su visión. Yo en mis conferencias me la juego y digo que la primera visión del futuro que tenemos por escrito, recogida por el que la tuvo, es el Libro de las Revelaciones, del Apóstol San Juan. Se cree que es del año 95. Ojalá nadie venga a contradecirme. Coincidiréis conmigo que, como idea, ligar el diseño de futuros al Apocalipsis es algo muy romántico. Todos sabemos que el futuro que diseñó ese hombre incluye cosas como el Número de la Bestia, los Cuatro Jinetes, la Prostituta de Babilonia, siete coronas sobre siete cabezas, fuego y azufre a partes iguales, etc.

2000 años después, los que trabajamos en tecnología nos vemos atrapados durante los meses de diciembre a enero, absorbidos por la “publicación de las predicciones de los analistas”. Titulares del tipo “las tendencias del año 202X” o “en el año 202X las empresas gastarán XYZ miles de millones en tal cosa”. Lo peor de estas predicciones es que las hacen empresas serias, a partir de encuestas e investigación de mercados. Y otras empresas las usan para tomar decisiones, o lo que es más grave, para justificar sus decisiones. Por ejemplo, el tema de la VR. He encontrado algunos titulares que me resultan muy graciosos, porque demuestran claramente los pasos del modelo de Hype de Garner. De hecho, se ve cómo la gente se va desperando.

Hype cycle for VR

El Hype Cycle de la Realidad Virtual

No deja de ser curioso que se vayan frustrando los periodistas, cuando la mayor parte del tiempo ellos mismos alimentan el hype. Imagino que eso es lo que les da rabia, haber fallado en sus predicciones. Un poco más adelante retomaré el modelo del Hype, y otro día si eso hablaremos de los periodistas. 

En fin, una vez que aceptamos la premisa de que es imposible predecir el futuro, tenemos que aceptar que realmente no queremos hacerlo, porque aquellos que viven de predecir el futuro son frágiles si no aciertan con sus predicciones (volveremos a este punto más adelante). Entonces ¿qué hacemos aquí hablando de diseñarlo? 

Bueno, es que predecir no es lo mismo que diseñar. El segundo punto importante en esta línea de artículos, tiene que ver con el lugar que para mí ocupa la teoría de diseño de futuros en el campo de la innovación:

Podemos seguir una aproximación metodológica y formal al diseño del futuro que queremos. Y luego tratar de que se cumpla a través de proyectos de innovación.

Que en fin, se cumplirá o no, pero al menos lo hemos intentado, como diría Jack Nicholson volando sobre el nido del cuco. Como investigadores, buscaremos las evidencias y las oportunidades, como diseñadores crearemos esa visión relevante, y como innovadores y desarrolladores, trataremos de conseguir que ocurra. Es una mezcla entre “hacer trampas en el solitario” y “profecías autocomplidas”.

¿Cómo se diseña el futuro?

Desde que en el año 2003 el Design Council publicó el modelo de doble diamante, sabemos que hay un marco conceptual universal para definir un proceso de diseño. Es ampliamente utilizado en el mundo de la experiencia de usuario (cosa normal por otra parte), también en ideación,innovación, y cómo no, se usa también en el diseño de Futuros.

Double Diamond model for futures design

El modelo de Doble Diamante aplicado al Diseño de Futuros

La teoría lo que dice es a priori sencillo:

  1. en la etapa de “discovery”, que es donde habitualmente se hace el research, el equipo busca “señales”. Una buena definición de “señal” es: un ejemplo del futuro en el presente. Algo que está ocurriendo ahora, que identificamos que puede ser relevante dentro de unos años por el impacto que puede tener. Por ejemplo, yo tengo una señal que es una foto que hice en el año 2016 a un cartel en la puerta de un pub en Edimburgo que decía “no hay Wifi, hablad entre vosotros y emborracharos”. ¿Por qué me parece relevante? Porque recuerdo que el año 2004, Starbucks empezó a desplegar la WiFi gratis para clientes como parte de su “experiencia” y “propuesta de valor diferencial”. Sin embargo, en 2016, veo un local que construye una propuesta de valor diferencial sobre la idea de la desconexión y el contacto personal. Y emborracharse. Desde este blog recomendamos beber con moderación y responsabilidad.
  2. luego, en la etapa de “define”, se hace una convergencia para encontrar cómo esas señales podrían formar parte de una “tendencia”. Podemos decir que una tendencia es algo más que una colección de señales relacionadas, una tendencia es algo que ya está ocurriendo, una corriente de cambio en marcha que nos lleva de una situación origen a una nueva situación. Por ejemplo, que las grandes cadenas multinacionales de comida rápida (McDonald’s, Burger King, KFC) tengan platos (o adaptaciones de sus platos) veganos representa una tendencia. Puede deberse a muchos motivos, desde cambios en el estilo de vida, alimentación saludable, concienciación con la sostenibilidad, oposición al modelo de explotación ganadera para el consumo de carne, preocupación por el medioambiente, etc. 
  3. después, en el siguiente paso divergente de “develop” se crean “escenarios” a partir de la tendencia que se ha identificado. Un escenario será una descripción, más o menos detallada, de una realidad en la que nos podríamos encontrar viviendo algún día. Una manera de generar posibles escenarios a partir de tendencias es seguir el modelo de 4 futuros de Jim Dator, que invita a pensar qué pasaría en situaciones de:
    • crecimiento, donde todo va en la misma dirección, cada vez mejor y más grande.
    • hundimiento, al contrario que lo anterior, todo va terriblemente mal y las cosas se vienen abajo.
    • adaptación, cuando surgen nuevos problemas o restricciones que limitan el escenario de crecimiento.
    • y transformación, que es el contrario del anterior, algo que era un problema deja de serlo, y habilita nuevas posibilidades.
  4. y por último, durante en la etapa de “delivery” se crean “artefactos del futuro”. Una representación física y tangible de algo que podría existir en ese futuro, que nos ayuda a ambientarnos, a entender y a explorar las implicaciones.
A signal and a trend

Una señal y una tendencia

A partir de ahí, hay muchos motivos para poner en práctica el diseño de escenarios futuros; en mi caso me interesa aplicarlo en el ejercicio de plantear un modelo de innovación que tiene que arrancar hoy, y crecer hasta el momento de su madurez, que ocurrirá en ese escenario futuro que hemos diseñado.

Hasta ahora todo correcto, entonces, ¿cómo se incorpora la Antifragilidad? Si os parece, primero vamos a ver cuáles son las características que nos permiten hacer una aproximación de diseño a la antifragilidad.

¿Cómo se diseña un Sistema Antifrágil?

Bien, ya hemos comentado anteriormente que en un sistema o modelo frágil, los beneficios potenciales están acotados, permanecen mientras todo se mantiene estable y bajo control. Sin embargo, las pérdidas son exponenciales cuando llega la crisis. Los modelos resilientes, están hechos para permanecer constantes durante una situación de crisis, diría que tienen beneficios acotados y pérdidas acotadas. Por lo visto, la primera vez que se recoge por escrito el concepto de “failover” es en un memorando del programa Mercury-Atlas de la NASA (misiones tripuladas en órbita terrestre), del año 1962. Osea que parece bastante claro que estamos acostumbrados al diseño resiliente, eso ya no hay que explicarlo. Finalmente, los sistemas antifrágiles mejoran cuando son sometidos a estrés y tensión, algo que ocurre en una crisis; y lo único cierto que sabemos del futuro, es que habrá otra crisis. 

Algunos ejemplos de diseño antifrágilles:

  • Como ejemplo de tecnología antifrágil, se me ocurre el tema de las redes de intercambio P2P, que funcionan mejor cuantos más usuarios se conectan y más peticiones de descarga reciben. A mayor número de usuarios que “comparten” e “intercambian”, mejor funciona la red. Sin embargo, los archivos que se quedan listados pero que a penas se comparten suelen tener peor rendimiento pero acaban por bajar (salvo que nadie los comparta, y se queden las típicas secciones que nunca terminan de compartirse). Es un ejemplo de que a mayor volatilidad, mejores beneficios, y con la estabilidad, pérdidas acotadas.
  • Como ejemplo de modelo de negocio, el de la cyberseguridad, donde las empresas mejoran sus capacidades y son más competitivas cuantos más ataques son capaces de detener, cuantas más vulnerabilidades se descubren y cuanto mejor son los delincuentes. Si dejase de haber ataques o de publicarse vulnerabilidades, estas empresas desaparecerían. Aunque no creo que haya alguien previendo que en el futuro vaya a dejar de haber delincuentes, pero bueno.
  • Y como ejemplo de sistema antifrágil, el de las organizaciones de voluntariado; cuanto mayor es el número de personas en situación de necesidad por catástrofes naturales, crisis humanitarias, guerras, hambrunas, etc, mayor es el número de organizaciones y personas que se organizan para ayudar, y el dinero recaudado para que logren sus actividades. 

Por tanto, si me preguntáis a mí, yo preferiría diseñar sistemas antifrágiles, personalmente invertiría mi dinero en sitios que puedan suponer pérdidas acotadas y beneficios exponenciales. Y como en el futuro va a haber crisis…

Si la innovación que diseñamos hoy va a ser relevante en el futuro, y lo único que sabemos del futuro es que habrá más crisis, me parece interesante diseñar pensando en mejorar con las crisis.

La imagen de la Hidra de Lerna recopila las características de un sistema o modelo Antifrágil, tal y como lo define a lo largo del libro Taleb.

Hail Hydra

Hail Hydra

Repasemos los términos, al menos mi concepción de los mismos:

  • descentralizado. Es decir, no hay un único punto de toma de decisión, sino que las decisiones se toman en diferentes nodos.
  • distribuido. No es lo mismo descentralizado que distribuido. En un sistema distribuido, los elementos (sean o no de toma de decisión) están en diferentes ubicaciones.
  • autónomo. Entendido como la capacidad de las partes de tomar decisiones por sí mismas sin consultar al resto.
  • redundante. Porque hay más de un elemento que realiza la misma función. De manera que si uno fallase o dejase de estar disponible, otro pudiera asumir sus tareas.
  • ágil. Entendido como que es capaz de dar una respuesta, o tomar una decisión, de forma rápida.
  • flexible. Es decir, capaz de adaptarse a nuevas situaciones y escenarios imprevistos.

Hasta ahora hemos visto características que habitualmente se asocian a sistemas resilientes, y que a la larga, les dan la habilidad de tolerar el fallo o la sobrecarga de alguna de sus partes. Los que trabajamos en el mundo de la tecnología estamos muy habituados a este tipo de sistemas. Quizá las dos últimas características son tal vez, las que para mí me resultan las más relevantes en la búsqueda de la Antifragilidad:

  • necesitan estar sometidos a tensión. Está preparado para un entorno variable y cambiante, vamos, lo contrario de un laboratorio. 
  • tiene un propósito que permanece en el tiempo. Esta es para mí una de las ideas principales; y con las que más colisiona la teoría de la innovación disruptiva que veo a mi alrededor. Lo que me lleva a la siguiente conclusión que quiero compartir.

Las cosas que llevan decenas, o centenares, o miles de años funcionando tienen dos cualidades: uno, resuelven un problema de manera satisfactoria y dos, han ido sobreviviendo y mejorando tras varias crisis. Pues quizá estén bien pensadas y haya que respetarlas.

Creo que este es uno de los principios más interesante de todos, quizá el más ignorado y denostado por las personas que trabajan en innovación; y que requiere un verdadero esfuerzo para cambiar el mindset.

Lee el Futuro en los posos del Hype

Lo de Keep It Simple, Stupid parece que a veces se nos olvida, y cuando nos ponemos a innovar nos dedicamos a buscar cómo meter en la solución nuevos juguetes, simplemente para jugar con ellos. Para ver que se puede. O para molar.

Y está genial, cuando el objetivo de la innovación es comprobar que algo puede hacerse, o molar. Yo defino innovar como «el uso de la creatividad para resolver un problema existente, de una manera que nunca se había hecho antes». En mi caso, el objetivo suele construir modelos, sistemas o soluciones que espero sobrevivan todo el proceso de inversión y crecimiento, hasta convertirse en una línea de ingresos relevante en el futuro. Lo de probar algo, o molar como objetivo no me llena 😦

Es curioso, porque cuando he comentado en algún proyecto o con algún cliente algo tipo “pues yo creo que no metería aquí una blockchain”, o “para esto la gamificación no tiene sentido”, o “esto no tiene nada que ver con el 5G” algunas personas me han dicho “tío, pareces el director de anti-innovación”. Y a mucha honra. 

Dejad que os cuente cómo leo yo lo del Hype Cycle de Gartner. Lo divido en tres cuadrantes. Al principio lo dividía en dos: en las cosas que generan frustración y las que no; pensando quizá de forma inocente, que trabajando en lo que trabajo, nadie contrata a alguien para hacer cosas que acaben haciéndole sentir frustrado. 

Understand Hype Cycle

La realidad supera la ficción, y a veces las expectativas

Pero últimamente he decidido meter una tercera casilla, la casilla de la muerte de la Oca. La de las cosas peligrosas porque automáticamente despiertan el deseo de generar “contenidos noticiables” o “media value”. Cosas que publicar en las redes sociales, en campañas en Facebook y que con un poco de suerte, te saque Matías Prats en el telediario, o Pablo Motos en el Hormiguero. Como si salir en el Hormiguero, con todos mis respetos, fuese un objetivo de negocio en sí mismo. Claro, cuando sales en el Hormiguero contando algo que en dos meses se despeña por el Abismo del Chasco, la frustración es doble. Primero, por la que define el propio Hype Cycle en sí mismo, y luego, porque has salido en público contándolo y has fracasado. Y en otros sitios no se, pero en España somos especialistas en machacar al que fracasa.

Cuando nos acercamos a la innovación disruptiva en las organizaciones, tenemos que ver el hype cicle de Gartner casi como una advertencia. Las tecnologías que uses van a moverse a lo largo de la curva de expectativas, ¿en qué punto estarán cuando se materialice tu futuro? Como protocolo, la blockchain es de 2008. Seguro que has leído “The Blockchain Revolution” de Don Tapscott. Se publicó en 2016. ¿En qué punto están todas esas ideas sobre cómo la blockchain iba a cambiarlo todo? Internet, los negocios, la economía, la seguridad jurídica, la prosperidad… Seguramente pienses que están despeñándose por el Abismo del Chasco (si no lo crees, si piensas que la blockchain está escalando la Colina de la Razón, escríbeme un tuit que ponga “Blockchain Revolution”, y empezamos un debate) 

La aproximación antifrágil al Hype Cycle consiste en pensar que las nuevas tecnologías, en su estado de inmadurez y poca implantación, pueden ser rápidamente reemplazadas por otras. Sin embargo, aquellas tecnologías que llevan con nosotros más tiempo seguramente seguirán estando. Estaban bien pensadas, porque nadie ha conseguido todavía dejarlas obsoletas

Lo que me lleva al ejemplo del papel. Pese al concepto del hypertexto y la navegación por internet en los 90, pese a los libros electrónicos, pese a la invención de la tinta electrónica en el año 2002, pese a la presentación del Kindle en el 2007 y del iPad en el 2010, en el año 2020 la facturación de libros en papel en España representa más del 84% del total, según los datos de la ONTSI.

Ventas de libros

Ventas de libros en el mundo. Fuente: Telos y ONTSI. Estudio anual del Sector de los Contenidos Digitales en España 2018

En Estados Unidos, por ejemplo, las ediciones en formato físico siguen representando el 70% del total de las ventas, frente al 17,8% de eBook y el 8,5% del audiolibro.

Osea, en tu futuro de dentro de 10 años, apuesta porque seguirá habiendo libros. ¿Cuál es el motivo? Está claro que no es por el contenido (el contenido es el mismo en ambos soportes) ni por el precio (habitualmente menor en digital). Debe ser algo relacionado con la experiencia y con los atributos de las cosas físicas: el modelo de lectura, el pasar una página, la sensación de propiedad de tu libro en una estantería, poder dejarlo a otra persona y trasferirle tus intereses, poder subrayarlo, tomar notas… incluso poder poner fotos en Instagram de lo profundas que son tus reflexiones.

¿Sabes qué más va a haber en tu futuro de dentro de 10 años? Bicicletas. A punta pala. Ya se que es más cool pintar escenarios de futuro donde la gente va a a la oficina en su coche volador, pero en serio. La obligación de la ciencia ficción es diseñar escenarios que nos resulten interesantes, divertidos, atractivos, fascinantes, aterradores… y que alguien pague por verlos o por leerlos. Y este post no va de eso, va de negocios, osea, de diseñar la mejor manera de gestionar una inversión para conseguir un retorno.

Flying cars vs More Bikes

Las bicicletas son para el futuro

Los Futuros Frágiles

Las características de un sistema antifrágil, nos permiten en cierta medida conocer las de un sistema frágil. En este caso, de un futuro frágil.

Una persona podría ver la señal de que Tesla tiene su propio seguro de auto para sus clientes, y unirlo a las tendencias de coches conectados, y los coches autónomos gracias a la inteligencia artificial, la blockchain y el 5G, y hacer un escenario futuro como el siguiente:

Dentro de 10 años, el negocio del seguro de automóviles será disrumpido por los fabricantes de coches. Se hará a través de una blockchain global gestionada por Ia IA de los vehículos autónomos, y sus conexiones IoT a través de 5G.” 

Para mí es un ejemplo de futuro frágil, tiene muchas probabilidades de no ocurrir y por tanto, quizá no sea lo mejor tomarlo como partida para hacer una inversión. Me atrevo a decir que el que tome una decisión de inversión sobre este escenario palma pasta. Sin embargo, tal y como está escrito, genera cierta aceptación, más de la mitad de los encuestados creen que esto va a ocurrir, y la tercera parte incluso quiere hacer que ocurra. Es cierto que la encuesta sólo tiene 79 votos. En lugar de quejarte, la próxima vez que veas una encuesta mía, vota y comparte 😉

Encuesta

En mi caso, yo voté que no va a ocurrir. Reconozco que mi encuesta estaba sesgada, para influir en que la gente votase a favor. ¿Por qué lo hice? ¿Porque soy un troll irredento? Podría, pero no. La he escrito de la forma en que vemos habitualmente las predicciones de empresas tipo Gartner, Forrester o IDC. Esas que otros usan para justificar sus decisiones 😦

¿Y por qué creo que es una predicción frágil?

Analicemos la respuesta. Puede que este escenario sea distribuido, porque no dice qué fabricante de automóviles lo va a hacer, y además es redundante, porque asume que varios fabricantes a la vez pueden trabajar en esta misma línea. Incluso podremos decir que es autónomo, porque asume que las diferentes tecnologías en las que se sustenta esta predicción irán evolucionando cada una por su lado. Eso está bien.

Sin embargo, no es flexible. En la propia predicción está escrito quién va a hacerlo, qué va a hacer, y cómo se va a hacer. ¿Qué necesidad hay de entrar en ese detalle? En realidad ninguna, salvo que lo que se pretenda sea generar interés o expectación sobre esas tecnologías. Y sobre todo, olvida varios hechos fundamentales: 

  • Es cierto que asume que el concepto de seguro va a seguir existiendo dentro 10 años. Es decir, respeta el concepto de que la gente paga a otros por traspasarles el riesgo sobre un bien, desde la época de los babilonios. Sin embargo, olvida que las compañías aseguradoras existen desde el siglo XIV. Eso significa que no se van a quedar mirando cómo alguien les quita el negocio. Puede que Netflix acabase con Blockbuster, pero no acabó con el alquiler de películas. 
  • No incorpora los riesgos inherentes a los dispositivos conectados, como puede ser los errores en el software, la necesidad de mantener los sistemas actualizados, o el riesgo de hackeo, algo que no suele estar contemplado en las coberturas y primas de vehículos tradicionales; y que es precisamente lo que puede dotar de variabilidad y personalización a la oferta y al cálculo de las primas para evitar esa disrupción.
  • Y tampoco respeta la volatilidad de aquellas tecnologías que no están consolidadas y por tanto tienden a ser reemplazadas rápidamente por otras, todavía no sabemos cuáles.

Por tanto, obvia dos de las principales características de la antifragilidad: estar preparado para la tensión y respetar ese propósito subyacente largo en el tiempo.

Con esas mismas señales, y tendencias, tomando en cuenta estos últimos puntos, y añadiendo sobre la marcha que el negocio de las aseguradoras por desgracia sigue basándose en la competencia en precio, a mí me gusta más esta propuesta de futuro.

”Dentro de 10 años, la competencia para captar clientes en el negocio del seguro de coches girará en torno al vehículo autónomo, y supondrá una oportunidad para que otras empresas (como fabricantes o grandes gigantes del software) entren a competir en ese sector, y para que los incumbentes construyan una nueva propuesta de valor diferencial.”

Este forecast permite construir escenarios mucho más abiertos, innovar desde diferentes visiones (no sólo tecnológicas, también de la diversidad de la industria), y explorar “hoy” modelos de negocio o soluciones que puedan ser realmente relevantes en el “futuro”. O incluso esta otra, que me gusta más:

”Dentro de 10 años existirá un nuevo ramo de seguro, donde el asegurador cubrirá al asegurado de los daños causados por algoritmos, y supondrá una oportunidad para que otras empresas entren a competir en el sector, y para que los incumbentes construyan una nueva propuesta de valor diferencial.” 

Me gusta porque es todavía más antifrágil, puesto que amplía la tendencia de que cada vez hay más algoritmos que regulan nuestra vida (desde los que nos dejan acceder a un préstamo o a una universidad, a los que conducen nuestros coches), y sigue respetando dos conceptos universales: hay gente que paga a otros por cubrir su riesgo (pero no establece a quién), y el software y los algoritmos fallan (verdad universal donde las haya).

Cómo diseñar Futuros Antifrágiles

Para terminar este post, quería compartir algunas de las claves a tener en cuenta durante el proceso de diseño, a modo de tips o consejos, y que son las que yo uso. Son 6, y aplican en diferentes puntos del proceso de diseño.

  1. Durante la fase de investigación invierte también recursos en buscar las ideas / necesidades / soluciones / modelos que han perdurado durante el tiempo. Son aquellos que han pasado por varias crisis y es de suponer que podrían sobrevivir a la siguiente. En lugar de intentar reemplazarlos, una vez identificados considera la opción de construir sobre ellos.
  2. Cuando estés diseñando tu solución intenta identificar aquellos aspectos o elementos frágiles del contexto actual del problema, y que por tanto podrían no perdurar en el tiempo. Aprovecha que estás planteando una nueva solución para reemplazarlos por nuevos elementos que sí cumplan los criterios de antifragilidad.
  3. En el caso de que estés diseñando una solución técnica, evita usar tu sesgo de confirmación para incluir tecnologías modernas simplemente por el hecho de serlo. Lo más seguro es que las tecnologías que no han alcanzado su nivel de madurez sean sustituidas por otras, o acaben por ser descontinuadas. En lugar de eso, utiliza tecnologías maduras que hayan sido ampliamente usadas y por tanto, optimizadas.
  4. Aunque siempre es necesario definir las hipótesis sobre las que se sustenta tu solución y los KPIs que permitan saber si se están cumpliendo, tenemos que considerar que nuestro sistema no está cerrado. Al contrario, tenemos que estar abiertos a revisar e incorporar nuevas hipótesis con el tiempo, y por tanto, a revisar e incorporar nuevos indicadores.
  5. Durante la fase de validación de nuestra solución, debemos evitar caer en la falacia de los entornos excesivamente controlados. Es cierto que una aproximación “Friends & Family” a la validación permite probar en un contexto de confianza, donde detectar posibles errores e ineficiencias sin impacto por ejemplo en la marca o en el negocio. Aunque es posible que un entorno de laboratorio sea útil para esta clase de lanzamientos controlados, la estrategia de validación no tiene por qué serlo. La aproximación en este caso sería ser cauteloso con el contexto, pero arriesgado con la estrategia de validación. Es decir, validar el funcionamiento límite del sistema en un entorno de laboratorio, en lugar de validar el happy path del sistema en un entorno de laboratorio.
  6. Cuando estés analizando los resultados en la etapa de aprendizaje, no asumas que eres capaz de identificar lo que ha funcionado; que es la aproximación más habitual. En lugar de ello, sigue la aproximación lean, o como la llama Taleb, la via negativa. Es decir, detecta y elimina aquello que puedas demostrar con certeza que ha fracasado, haciendo tu solución más sencilla. Y acepta que el resto ha funcionado porque era bueno resolviendo algún propósito, aunque quizá no sepas exactamente cuál. 

Finalmente, no olvides hacer la prueba del 9, en este caso la prueba del 8. Comprueba si tu sistema o predicción tiene los 8 atributos que determinan la antifragilidad, y que recoge la imagen de la Hidra.

Epílogo

Pues hasta aquí. Siento que este último post se me haya vuelto a ir de las manos. Tenía el tema de la extensión muy controlado, y he vuelto otra vez a los post de más de 4500 palabras 😦

Al menos, espero que te haya parecido un concepto interesante. Me ha llevado meses desarrollarlo y sobre todo, ponerlo por escrito. He tenido la ocasión de hablar de esto en varias conferencias y clases en escuelas de negocio en lo que va de año, y lo veo con madurez suficiente como para compartirlo.

De todas maneras, tus dudas, comentarios y sugerencias me ayudan a refinarlo. ¡Gracias!

Gorriones, bicicletas y la nuevanormalidad

Tiempo de lectura: 10 minutos

De verdad que me resulta fascinante el nivel de incertidumbre y sobre todo, de fragilidad, que hemos tenido que padecer estos días de confinamiento. No me refiero a la fragilidad del ser humano, vulnerable contra un pequeño virus, sino a la fragilidad de las predicciones de expertos y analistas, que nos tienen todo el día machacados con lo de la «nueva normalidad».

Por favor: la nuevanormalidad es la misma de antes, pero con mascarilla (algo que seguramente en Agosto con el calorazo, los españoles volveremos a ver como una excentricidad). Bueno, la misma de antes solo que con un 30% de paro, eso sí que va a ser un drama. Esa sí que va a ser la nuevanormalidad: tiendas cerradas, gente haciendo cola para el reparto de comida, y personas en riesgo de quedarse fuera del mercado laboral 😦

Duelo a garrotazos nueva normalidad

«Duelo a garrotazos en la nueva normalidad» (Goya)

Muchas de las visiones que he estado leyendo pintan el Madrid nuevonormal como una ciudad de gorriones y bicicletas. Parece que se nos ha olvidado que, en Madrid, la calidad del aire ha mejorado porque nos han prohibido coger el coche, porque han cerrado los centros comerciales, tiendas, oficinas, bares y colegios. Confundimos el resultado con la señal. No ha habido ningún tipo de movimiento social de ciudadanos hartos que quieran acabar con el mal olor, el ruido, la boina que se ve desde Seseña, o tener basura en los pulmones. Ni un plan de acción global conjunta entre partidos políticos (gobierno y oposición municipal), grandes empresas, asociaciones de vecinos y de transporte de personas y mercancías. Nada de eso ha ocurrido, no ha habido nada que haya generado un cambio de tendencia.

Durante los dos meses que los humanos hemos estado confinados en casa, los animales se han movido libres por nuestras calles. Por eso el timeline de nuestro Instagram se ha inundado de fotos de flores entre el asfalto, pájaros, patos, gatos, incluso caballos. De nuevo, confundimos como señal de cambio algo que sólo representa la imposición.

Una tarde, a la hora de los aplausos, nos asomamos por la ventana y vimos a gente en bici por la calle, por cierto, hablando a gritos entre ellos (o quizá no a gritos, es que como no había tráfico, se les oía). Y confundimos el deporte y el fresquito de la tarde con la «nueva normalidad».

Madrid. Gorriones y bicicletas.

Supongo que deberíamos ver esta situación como una especie de MVP extremo, un test masivo de una nueva realidad. ¿Cómo serían nuestras ciudades con el mínimo número viable de coches alrededor? Sólo que si estamos haciendo un MVP, deberíamos tener claras las hipótesis que se están validando. En este caso, la hipótesis principal era la imposición. ¿Están los ciudadanos dispuestos a renunciar a sus derechos civiles para proteger su salud? Así que el Gobierno publicó el Real Decreto de Estado de Alarma, que recortaba drásticamente nuestros derechos para prevenir el contagio, y eso nos obligaba a quedarnos en casa. Eso es todo. Pero hemos caído en el error de proyectar las consecuencias de algo esporádico para convertirlo en lo nuevonormal.

Gorriones y bicicletas

Gorriones y bicicletas (SEO Birdlife)

Así que hemos caído en la fragilidad de pensar que el transporte público y la primaverita convertirían Madrid en un paraíso de aire puro, gorriones y ciclistas. Es una idea frágil porque se viene abajo en cuanto cambias la hipótesis.

Futuros Frágiles

En cuanto nos han dejado salir a la calle (la hipótesis de la imposición desaparece) las cosas han vuelo a la normalidad. Por no decir que han ido a peor. Permitid que os diga que la realidad, y sobre todo, la evidencia empírica, lo que nos dice es:

  • que en verano, en el cercanías, en el metro, en el autobús… que en cualquier forma de transporte público hace un calor que lo flipas. Obviamente, esto lo sabe la gente que lo usa. Pero da igual, el «desk research» es inmediato, basta conectarse a tuiter y leer las quejas de la gente que va por ahí sofocada y muerta de asco bajo el suelo. Pero los coches tienen aire acondicionado.
  • que durante el verano, la frecuencia del transporte público baja, porque se supone que la gente está de vacaciones y no tiene que ir a sus oficinas. Así que ¿cómo vamos a respetar la distancia social si hay menos vehículos, y por tanto, lo que se espera es que los usuarios se agrupen por lotes?
  • que con el coronavirus, el transporte público y el car-sharing y el taxi/uber/cabify son espacios percibidos potencialmente peligrosos por las personas que llevamos 3 meses oyendo hablar de muertos diarios. ¿Quién es la persona que va a mi lado? ¿Quién ha tocado esta barra? ¿Habrán tosido antes de abrir la puerta? Total, pánico. No tenéis más que ver la cantidad de campañas que machaconamente nos recuerdan que los limpian, fijan y dan esplendor todos los días. En algunos casos, incluso detallan los productos químicos que usan para limpiar, lo que me recuerda a esas campañas de márketing que te dicen que no se qué tiene «coencimina Q10» u «oxígeno activo». Términos pseudocientíficos pronunciados por gente bien peinada en bata blanca, que se usan para que el consumidor se quede más tranquilo. Total, no se puede ser más sospechoso.

En cambio, mi coche privado, que es mío, al que sólo se sube gente de mi confianza a la que se lo permito, es un espacio seguro donde tengo la sensación de que no me contagio. Y además voy con el aire acondicionado.

Polar bear

Los osos polares no sudan (GM Harrison air conditioning, años 50)

Así que aquí está la primera señal nuevonormal  de mi ciudad: durante la primera fase de la salida del confinamiento, el uso del vehículo privado llegó al nivel del 50% que había en febrero, antes de la cuarenta. Además, se detectó una transferencia del 13% de ciudadanos que dejaban de usar el transporte público y elegían el vehículo privado. Y el nivel de recuperación de uso del transporte público era más lento, tanto, que en fase 1 estaba a un 70% de los datos de febrero. Como país, un estudio durante la fase 2 de la desescalada demostró que a nivel global, España había recuperado un 80% el uso del vehículo privado, mientras que el público estaba en el 40%. Fuentes: elDiario.es and ElEspañol.es

En el Madrid nuevonormal la calidad del aire y los problemas de tráfico han mejorado, veremos menos coches privados en la calle gracias al incremento del uso del transporte público y de medios alternativos como la bicicleta. (Predicción Frágil)

¿Por qué alguien querría detectar la Fragilidad?

Sinceramente, es un trabajo difícil. Quiero decir, hacer research es sencillo, y tener ideas también. Una vez que sabes cómo crear la Propuesta de Valor para un usuario objetivo a partir de esas ideas, establecer algunas hipótesis para un modelo de negocio y dar el salto del powerpoint a un MVP desplegado en AWS está tirao. No me malinterpretéis, está tirao si tienes las competencias para hacerlo. Pero como digo, es la parte fácil, hasta ese punto llega todo el mundo. Lo difícil es cuando tienes que lanzar algo al mercado, y seguir invirtiendo dinero y tiempo para convertir un MVP en algo que alcanza el break even en 3 años. ¿Por qué 3 años?

EMT 36

El 36 conecta Atocha con Carabanchel (EMT de Madrid)

He tenido la oportunidad de hablar con muchos emprendedores que querían ser invertidos por Sngular en los últimos 10 años, y me he dado cuenta de que el business plan medio contempla el break even en el tercer año. Quizá el motivo es que más tiempo genera dudas en los inversores («¿es esto lo suficientemente bueno como para meter dinero ahí?»), y menos transmite demasiado optimismo («estos tíos no saben de lo que hablan»). Y esto no termina aquí. Si consigues hacer break even significa que estás preparado para seguir inviertiendo más dinero y más tiempo, para conseguir una línea relevante de ingresos.

¿Cuánto tiempo? ¡Vete a saber! ¿2 años?, ¿5?, ¿7?, ¿10 años? Echa un vistazo a los 4 ejemplos a continuación y dime de ellos cuál crees que representa una línea de ingresos relevantes para su compañía. ¿Crees que alguno necesita más inversión?

Creo que estaréis de acuerdo conmigo en que los promotores de estos 4 ejemplos tienen que seguir invirtiendo en ellos.

Bien, entonces, ¿cuál es el mayor desafío que las grandes corporaciones encuentran en su roadmap de innovación? Por mi experiencia, lo que veo es que las grandes empresas tienen 3 de los 4 elementos que se necesitan para crear un modelo de negocio o un producto /servicio exitoso. Tienen expertos que conocen el mercado y sus clientes, y saben ver las oportunidades; tienen dinero para invertir en nuevas iniciativas; y tienen clientes actuales a los que pueden lanzar nuevas propuestas para empezar a monetizar desde el corto plazo. Lo que no tienen es resistencia; su energía no está enfocada hacia el futuro, au contraire, los empleados viven por lo general en el presente. Porque sus objetivos, su bonos y sus desempeño se revisan anualmente. Y si alguno de ellos tuviera objetivos a largo plazo, apuesta a que la siguiente reestructuración anual va a agitar el organigrama, ¿y quién sabe dónde van a acabar los directores? Y cuando un CxO cae, ¿qué le acaba pasando a su equipo?

Ned Stark beheaded

Juego de Managers

La innovación empieza en el presente, pero sus resultados ocurren en el futuro. Date cuenta que he dicho «futuro», no «Horizonte«.  El modelo de los 3 Horizontes lo propuso McKinsey en 1999, y desde entonces, ha sido usado ampliamente por la mayoría de las corporaciones. El 3er Horizonte es el que representa la visión del largo plazo y la innovación disruptiva (no incremental); es el lugar donde las ideas se enfrentan al mayor nivel de incertidumbre. Yo comparto el modelo de los Horizontes como una buena forma de gestionar un portfolio de proyectos, sin embargo, no me parece suficiente, creo que le falta algo. Queremos que la innovación viva el tiempo suficiente como para pasar de MVP a break even, de break even al Horizonte 2, y después al Horizonte 1 (que en algún momento en el futuro se habrá convertido en el presente). Para que sea relevante, la innovación necesita además de todo eso, sobrevirir a las tormentas de la designación del nuevo CxO.

Encuentro que la prospectiva estratégica y el diseño de futuros son la mejor manera de garantizar que la innovación tiene un propósito que va a resistir. Un propósito lo suficientemente fuerte para que el proyecto viva el tiempo que necesita para dar resultados, que sobreviva a los cambios en los presupuestos y los cambios en la organización. Como innovadores, tenemos que trabajar en diseñar un futuro, aquél que la organización quiere ver cumplido (teniendo en cuenta la visión de sus clientes, empleados, accionistas, la sociedad, el medioambiente, lo que sea) y luego hay que asegurarse que los proyectos y las iniciativas están alineados con esta visión del futuro. Porque la visión del futuro tiende a ser más fuerte que los cambios o el día a día, ya que los cambios y el día a día existen para materializar la Estrategia (y no al revés)

Tengo la sensación que el diseño de futuros está de moda porque es la forma que hemos encontrado de hacer que lo que hemos aprendido sobre diseño de productos, servicios y modelos de negocio, escale hacia la Estrategia. Pero para mí no es suficiente, para conseguir que las grandes empresas inviertan recursos (tiempo y dinero) en algo que esperamos que llegue a break even en 3 alos, y que genere ingresos relevantes dentro de 5 o de 10, mi consejo sería validar lo Frágil que es el futuro que estamos diseñando.

Creatividad, Innovación y Apropiación Cultural

Tiempo de lectura: 10 minutos

Es difícil definir qué es la creatividad sin usar la palabra «crear». Tanto como lo es definir la innovación sin usar la palabra «nuevo». Me pregunto por qué la gente escribe posts con su definición de algo, cuando existen los diccionarios. Y aún así, aquí estoy, escribiendo un post de lo que significan para mí esos términos. ¿Por qué? Imagino que porque las palabras a veces se usan bien o mal, o lo que es peor, se usan de manera diferente de lo que se pretendía. Creo que el peor problema de comunicación entre dos personas ocurre cuando ambos usan las mismas palabras, pero en sus mapas mentales, les han dado diferente significado. Así que creen que están entendiéndose, pero en realidad no.

Me gusta en concepto de transformar las ideas en cosas que existen, porque implica la existencia de un proceso que produce algo nuevo. Algunas personas encuentran que éste proceso es escribir, dibujar, pintar, componer, diseñar, incluso actuar o cantar. En esta definición de creativdad, las ideas se convierten en cosas accionables. Cuando se «crea» alguien puede hacer algo con el resultado. Por el contrario, si conviertes las ideas en otras ideas que siguen dentro de tu cabeza, quizá lo que tienes es imaginación. Como ingeniero, diría que puedes tener imaginación pero no ser creativo, sin embargo, para ser creativo tienes que tener imaginación.

¿Y qué pasa con la innovación? Hay muchas definiciones por ahí, la mayoría conectan la innovación con los negocios. No tengo claro que la innovación tenga que conectarse con el «éxito» (puesto que el fracaso es una parte esencial de la innovación), ni tengo claro que deba limitarse a algo que genere ingresos. O con el «valor«. ¿Qué es el valor? ¿Y quién lo define? ¿El que lo crea? ¿El que lo usa? ¿El que lo paga?

Innovación es el uso de la creatividad para resolver un problema existente, de una manera que nunca se había hecho antes.

Y luego ya veremos si genera dinero o no. De nuevo, para mí tiene sentido conectar la innovación con un problema. Uno que exista, claro; de lo contrario, si estás usando la creatividad para crear un problema que no existía, a lo mejor estás comentiendo un fraude (o un delito, según la gravedad del problema que te inventes). Puedes usar la creatividad para hacer algo que nunca se haya hecho anteriormente, pero si no resuelve un problema que la gente tenga, quizá más que un innovador, serías un inventor.

Wile E Coyote

El Coyote no es un innovador, porque nunca ha resuelto su problema con el Correcaminos

Como veis, las ideas son la base de ambas definiciones. Pero, ¿las ideas de quién?

Mi Precioso

Le damos demasiada importancia a la autoría de las ideas. Sobre todo, los emprendedores primerizos. Llevo recibiendo planes de negocio para que los valore desde hace 9 años. Con el tiempo, he desarrollado cierto cariño hacia esas personas que tienen «una idea revolucionara que va a cambiar un negocio», de la que no pueden hablar si no firmas un NDA. ¿He dicho «cambiar»? Me refería a «disrumpir«. Ese palabro, disrupción, otro ejemplo de algo que todo el mundo usa sin entender lo que significa.

Las ideas están por ahí flotando. La inspiración viene y va en conversaciones, artículos, películas, conferencias, libros, cafeterías, bares… Lo que hace a los humanos diferentes de los animales es nuestro cerebro, que ha evolucionado para generar ideas. En marzo de 2020, hay 7.8 mil millones de personas en el mundo. Nadie sabe cuántas ideas se generan cada día; el Dr Deepak Chopra estima que el cerebro humano genera de 60 a 80 mil pensamientos cada día. Así que si echas cálculos, estadísticamente se me hace difícil pensar que cualquier idea que tengas es original, única y diferente.

My Precious

Es mío

No hay nada más peligroso que una idea, cuando sólo tienes una idea. Y aún así, puedes encontrar cientos de citas, conferencias, charlas, y libros que dicen que la ejecución es la clave del éxito. No es la idea, es cómo llevas la idea a la práctica. Espero que me perdones, querido lector, si crees que, como escritor, te he llevado al origen de mi post para demostrar mis propias teorías. Es una licencia que tenemos los escritores. Pero lo cierto es que hemos vuelto a la definición de la creatividad (hacer una idea realidad) e innovación (para resolver un problema existente de forma diferente)

Cuando escribía este artículo, tuve la ocasión de leer la última lluvia de mierda en Twitter: uno de lo modelos españoles mejor pagados se quejaba amargamente de que no le llegaba una tortilla, que había pedido por una app. No se quién fue el primero que pensó en repartir comida a domicilio. Parece ser que hay registros que demuestran que un estudiante coreano escribió en su cuaderno que unos amigos y él habían pedido noodles ¡en julio de 1768! En los años 60, algunas compañías empezaron a aceptar pedidos telefónicos sin cargo adicional (PizzaHut empezó en 1958 y Domino’s en 1960) Osea que en los últimos 200 años, los restaurantes contrataban chavales para repartir comida (principalmente pizza, sushi o comida china) usando sus propios medios de transporte. Era un modelo de negocio: alguien que tiene su moto propia reparte tu comida en menos de 30 minutos.

En 1995, dos emprendedores lanzaron Waiter.com, considerado el primer agregador online para pedir comida. Permitía a la gente hacer pedidos en 60 restaurantes (que tenían sus propios medios de reparto). Que un restaurante acepte pedidos telefónicos, parece una inovación más pequeña que agregar en un único lugar un montón de diferentes variedades para elegir, y hacer el pedido. Así que Waiter.com representa una gran idea que se convierte en un modelo de negocio. Que por cierto, JustEat implementó mejor. Fue fundada en el año 200 por cinco emprendedores daneses, y hoy es una compañía que factura más de 700 millones de libras.

El siguiente paso es Deliveroo, que fue fundada en febrero de 2013. La compañía introdujo la innovación de permitir que cualquier restaurante pudiera entregar comida a domicilio, sin importar si tenía o no medios para hacerlo. Deliveroo manda a uno de sus riders a cambio de una comisión. GrubHub introdujo la misma idea de reparto en junio de 2014. UberFRESH (el origen de Uber Eats) salió en Santa Mónica en agosto de 2014. Y Glovo fue fundada en septiembre de 2014 en Barcelona (aunque no aceptó pedidos hasta marzo de 2015). Así que, ¿quién lo pensó primero? ¿Y si todos ellos simplemente se inspiraron cuando Uber lanzó su modelo de todos-podemos-ser-taxista en 2010?

Tesla vs Edison

AC / DC

Así que ¿tienen dueño las ideas? Y si lo tienen ¿realmente importa? Del océano de citas motivacionales, he pescado cuidadosamente tres:

“You know, one of the things that really hurt Apple was after I left, John Sculley got a very serious disease. It’s the disease of thinking that a really great idea is 90% of the work.” (Steve Jobs)

 

“It’s important not to overstate the benefits of ideas. Quite frankly, I know it’s kind of a romantic notion that you’re just going to have this one brilliant idea and then everything is going to be great. But the fact is that coming up with an idea is the least important part of creating something great. It has to be the right idea and have good taste, but the execution and delivery are what’s key.” (Sergei Brin)

Entonces, si las ideas no son la clave en términos de innovación o de negocio, ¿por qué intentamos esconderlas? Puede ser porque nos de miedo que opinen de ellas, que nos juzguen o nos rechacen. O puede que encontremos la razón en la tercera cita. La que usaré como puente para conectar con el tercer concepto de este artículo. Es de una entrevista de 2004 con el director John Landis:

“People don’t understand this: Ideas are important, but they’re not essential. What’s essential and important is the execution of the idea. Everyone has had the experience of seeing a movie and saying, “Hey! That was my idea!” Well, it doesn’t mean anything that you had that idea. There’s no such thing as an original concept. What’s original is the way you re-use ancient concepts.” (John Landis)

Este es el quid de la cuestión. ¿Y si alguien con más recursos, poder y fuerza de voluntad toma lo que es mío, mi idea, y lo usa en su propio beneficio mejor que yo?

Lo de la Apropiación Cultural

  • El grupo que adopta los elementos culturales elimina su significado y propósito, convirtiéndolos en algo que no tiene nada que ver con el simbolismo que sus creadores les transmitieron.
  • El grupo que adopta los elementos culturales representa una cultura hegemónica o dominante, mientras que el grupo que creó los elementos adoptados es una minoría, o se considera marginal.

Apropiacion Cultural

¡Apropiate de esto! (Foto de Gavin Watson en 1979)

Sinceramente, no estoy preparado para bucear en las aguas que separan la Apropiación Cultural de la Inspiración, o la Apreciación Cultural, porque no soy antropólogo ni sociólogo.

De cualquier manera, en términos de creatividad y de innovación, diría que hay muchos ejemplos de ideas copiadas o mejoradas entre empresas de tamaño equivalente. Tomemos por ejemplo la App Store. Fue anunciada por Steve Jobs en una conferencia de desarrolladores en marzo de 2008, como la plataforma desde la que descargar apps en el iPhone. Abrió algunos meses más tarde, en julio de 2008. Por otro lado, Android Market (lo que es ahora Google Play) fue anunciado en agosto de 2008, y abrió en octubre de 2008. Así que ambas ideas son prácticamente la misma, y mirando las fechas, ya sabemos cuál vino antes. Sirven para lo mismo, y resuelven el mismo problema, pero de forma diferente. Sobre todo, por dos razones:

También hay ejemplos de empresas pequeñas que se hacen con el negocio de otras más grandes. El caso de cómo Netflix se adueñó del negocio de Blockbuster es algo que Christensen usó como ejemplo de disrupción.

Puedes encontrar casos de innovaciones fallidas que, con el paso del tiempo, otros consiguen hacer triunfar. Por ejemplo, el Timex Datalink fue el primer reloj digital capaz de bajarse información de un ordenador. Fue un desarrollo conjunto con Microsoft, que salió al mercado en 1994. El Datalink 50 tenía memoria para almacenar 50 números de teléfono, era capaz de sincronizar notas, listas de tareas y esa clase de cosas. La manera en que los ingenieros hicieron esa sincronización es sorprendente. Usaban destellos de luz para codificar datos. Suena muy naïf comparado con el AppleWatch, pero claro, es que ese producto salió 20 años antes.

Conocemos multitud de ejemplos de grandes corporaciones que compran empresas pequeñas para quedarse con sus ideas, productos o servicios, y hacerlos suyos. Por ejemplo, la compra que hizo Facebook de Whatsapp o de Instagram. Pero lo hacen precisamente por los logros que consiguieron las empresas pequeñas, reconociendo con la compra su incapaz de competir con ellas.

swiper

¡Swiper, no robes! (Dora la Exploradora, Nickelodeon)

Es triste aprender que es perfectamente legal que alguien robe tus ideas. Puede que no sea ético o elegante, pero lo cierto es que, a menos que puedas proteger tu idea por una marca registrada, una patente, un copyright o cualquier otra forma de Propiedad Intelectual, cualquiera puede cogerla y usarla para resolver problemas mejor que tú. No somos los dueños de nuestras ideas, esa propiedad no existe. Podemos patentar inventos, declarar el copyright de trabajos creativos, o registrar como marca logotipos y demás; pero no podemos registrar la propiedad de una «idea». Puedes mandarle a alguien un NDA, con la esperanza de sentar la base para una reclamación judicial, aunque estos juicios son caros y difíciles de ganar.

Lo que no he podido es encontrar ejemplos de compañías o colectivos dominantes, usando las ideas de otros de forma diferente a lo esperado, quitándoles el sentido o propósito para el que fueron creados. Algo que pudiera ser considerado Apropiación Cultural en el campo de la innovación. Es justo lo contrario: coges la idea de alguien, e inviertes más dinero o recursos para hacer que funcione mejor. De todas maneras, entiendo que la ausencia de evidencia no implica la evidencia de ausencia.

¿Y si alguien usa las ideas de otra persona en su proceso creativo o de innovación, reconociendo cómo sus autores les inspiraron? Bueno, en ese caso, ¿qué más podrían hacer? ¯\_(ツ)_/¯