Economía y Debate sobre Inteligencia Artificial

Pedro Luis Martín Olivares – Opinar sobre inteligencia artificial es como opinar sobre todos los ámbitos de movimiento del ser humano.

Por una parte, se encuentra la visión utópica de que la IA provocará un crecimiento económico desbocado, acelerará la investigación científica y quizás inmortalizará a los humanos, como debatimos en uno de los artículos anteriores. En el otro extremo se encuentra la visión distópica de que la IA causará pérdidas de empleos abruptas y generalizadas, así como disrupciones económicas, y quizás se volverá incontrolable y exterminará a la humanidad. Por ello, un artículo publicado a principios de este año por Arvind Narayanan y Sayash Kapoor, dos informáticos de la Universidad de Princeton, destaca por la sobriedad poco convencional con la que trata a la IA como una «tecnología normal». El trabajo ha suscitado un gran debate entre investigadores y economistas de la IA.

Tanto las visiones utópicas como las distópicas tratan la IA como una inteligencia sin precedentes con capacidad para determinar su propio futuro, lo que significa que las analogías con inventos anteriores fracasan. Narayanan y Kapoor rechazan esta idea y plantean lo que consideran un escenario más probable, sencillamente que la IA siga la trayectoria de las revoluciones tecnológicas pasadas. Consideran las implicaciones que esto tendría para la adopción de la IA, los empleos, los riesgos y las políticas públicas, ya que lleva a conclusiones fundamentalmente diferentes sobre las mitigaciones en comparación con considerarla como algo similar a lo humano.

El ritmo de adopción de la IA, argumentan los autores, ha sido más lento que el de la innovación. Muchas personas utilizan herramientas de IA ocasionalmente, pero con una intensidad, por ejemplo en Estados Unidos, en horas de uso al día, que sigue siendo baja como fracción del total de horas de trabajo. No es sorprendente que la adopción vaya a la zaga de la innovación, ya que las personas y las empresas tardan en adaptar sus hábitos y flujos de trabajo a las nuevas tecnologías. La adopción también se ve obstaculizada por el hecho de que gran parte del conocimiento es tácito y específico de cada organización, los datos pueden no estar en el formato adecuado y su uso puede estar restringido por la normativa. Hace un siglo, cuando se electrificaron las fábricas, existían restricciones similares: hacerlo llevó décadas, ya que requirió una reestructuración total de la distribución de las plantas, los procesos y las estructuras organizativas.

Además, las limitaciones al ritmo de la innovación en IA pueden ser más significativas de lo que parecen, argumenta los autores, ya que muchas aplicaciones como el desarrollo de fármacos, los coches autónomos o incluso la simple reserva de vacaciones, requieren extensas pruebas en condiciones reales. Esto puede ser lento y costoso, especialmente en campos críticos para la seguridad que están estrictamente regulados. En consecuencia, los autores concluyen que los impactos económicos «probablemente sean graduales», en lugar de implicar la automatización abrupta de una gran parte de la economía.

Incluso una expansión lenta de la IA cambiaría la naturaleza del trabajo. A medida que más tareas se vuelvan susceptibles de automatización, un porcentaje cada vez mayor de trabajos y tareas humanas estarán relacionadas con el control de la IA. Existe una analogía con la Revolución Industrial, en la que los trabajadores pasaron de realizar tareas manuales, como tejer, a supervisar máquinas que realizaban esas tareas y a gestionar situaciones que las máquinas no podían, como intervenir cuando se atascan. En lugar de que la IA robe puestos de trabajo de forma generalizada, los empleos podrían implicar cada vez más la configuración, la supervisión y el control de sistemas basados en IA. Sin supervisión humana, especulan Narayanan y Kapoor, la IA podría ser demasiado propensa a errores como para ser viable comercialmente.

Esto, a su vez, tiene implicaciones para el riesgo de la IA. Sorprendentemente, los autores critican el énfasis en la «alineación» de los modelos de IA, es decir, los esfuerzos para garantizar que los resultados se alineen con los objetivos de sus creadores humanos. Que un resultado determinado sea perjudicial a menudo depende del contexto que los humanos pueden comprender, pero el modelo carece de él. Un modelo al que se le pide que escriba un correo electrónico persuasivo, por ejemplo, no puede determinar si ese mensaje se utilizará para marketing legítimo o para phishing malicioso. Intentar crear un modelo de IA que no pueda usarse indebidamente es como intentar crear un ordenador que no pueda usarse para fines maliciosos. En cambio, sugieren que las defensas contra el uso indebido de la IA, por ejemplo, para crear malware informático o armas biológicas, deberían centrarse en etapas posteriores, reforzando las medidas de protección existentes en ciberseguridad y bioseguridad. Esto también aumenta la resiliencia ante formas de estas amenazas que no involucran a la IA.

Este razonamiento sugiere una serie de políticas para reducir el riesgo y aumentar la resiliencia. Estas incluyen la protección de los denunciantes, como se observa en muchos otros sectores, la divulgación obligatoria del uso de la IA, como ocurre con la protección de datos, el registro para rastrear la implementación, como ocurre con los coches y los drones y la notificación obligatoria de incidentes, como ocurre con los ciberataques. En resumen, el artículo concluye que las lecciones de tecnologías anteriores pueden aplicarse fructíferamente a la IA, y que tratar la tecnología como «normal» conduce a políticas más sensatas que tratarla como una superinteligencia inminente.

Muchas personas, al leer este rechazo al excepcionalísmo de la IA, asentirán. La perspectiva intermedia es menos dramática que las predicciones de un inminente «despegue rápido» o apocalipsis, por lo que tiende a no recibir mucha atención. Por eso los autores consideran que vale la pena articular esta postura: porque creen que alguna versión de nuestra visión del mundo está ampliamente aceptada.

Sabías que puedes leer este artículo  y otros en Telegram

Telegram Messenger 1 - Black Friday: ofertas para la comunidad de Bitcoin y criptomonedas

Pedro Luis Martín Olivares

Sé el primero en comentar en «Economía y Debate sobre Inteligencia Artificial»

Deja un comentario

Tu dirección de correo electrónico no será publicada.


*


*