Dentro de la caja negra

Pedro Luis Martín Olivares - Dentro de la caja negra - Inteligencia Artifical

Pedro Luis Martín Olivares – Los seres humanos no siempre comprenden la actuación de la inteligencia artificial

Hay una vieja broma entre los pilotos que dice que la tripulación de vuelo ideal es una computadora, un piloto y un perro. El trabajo de la computadora es volar el avión, mientras el piloto está allí para alimentar al perro y el trabajo del perro es morder al piloto si trata de tocar la computadora.

Entregar tareas complicadas a las computadoras no es algo nuevo. Pero ha surgido un reciente brote de progreso en el aprendizaje automático, un subcampo de la inteligencia artificial (AI), ha permitido que las computadoras aborden muchos problemas que anteriormente estaban más allá de ellas. El resultado ha sido un boom de la Inteligencia Artificial, desde diagnósticos médicos y seguros hasta automóviles sin conductor.

Hay un inconveniente, sin embargo, el aprendizaje automático funciona al dar a las computadoras la capacidad de entrenarse, lo que adapta su programación a la tarea en cuestión. Las personas luchan por comprender exactamente cómo esos programas autodidactas hacen lo que hacen. Cuando los algoritmos manejan tareas triviales, como jugar al ajedrez o recomendar una película para ver, este problema de «caja negra» se puede ignorar de forma segura, pero cuando deciden quién obtiene un préstamo o para otorgar la libertad condicional de un detenido o cómo conducir un automóvil a través de una ciudad abarrotada, es potencialmente dañino. Y cuando las cosas van mal, ya que, incluso con el mejor sistema, inevitablemente pasará, los clientes, los reguladores y los tribunales querrán saber por qué.

Para algunas personas, esta es una razón para frenar el desarrollo de la Inteligencia Artificial. El ministro de economía digital de Francia, Mounir Mahjoubi, dijo que el gobierno no debería usar ningún algoritmo cuyas decisiones no puedan explicarse. Pero eso es una reacción exagerada, a pesar de su brillo futurista, las dificultades planteadas por las computadoras inteligentes poseen precedentes. La sociedad ya tiene mucha experiencia lidiando con cajas negras problemáticas, las más comunes son llamadas seres humanos. Agregar nuevas cajas negras supondrá un desafío, pero no insuperable. En respuesta a los defectos en los seres humanos, la sociedad ha desarrollado una serie de mecanismos de afrontamiento viables, llamados leyes, reglas y regulaciones. Con un pequeño retoque, muchos de estos pueden aplicarse también a las máquinas.

Comenzando con los seres humanos, quienes son aún más difíciles de entender que un programa de computadora, cuando los científicos miran dentro de sus cabezas, usando costosas máquinas de escaneo cerebral, no pueden dar sentido a lo que ven. Y aunque los humanos pueden dar explicaciones sobre su propio comportamiento, no siempre son precisos. No es solo que las personas mienten y disimulan. Incluso los humanos honestos solo tienen acceso limitado a lo que está sucediendo en su mente subconsciente. Las explicaciones que ofrecen son más como racionalizaciones retrospectivas que resúmenes de todos los procesos complejos que están haciendo sus cerebros. El aprendizaje automático en sí mismo demuestra esto. Si las personas pudieran explicar sus propios patrones de pensamiento, podrían programar máquinas para replicarlas directamente, en lugar de tener que enseñarlas a sí mismos a través de la prueba y el error del aprendizaje automático.

Lejos de esa elevada filosofía, los humanos hemos trabajado con computadoras en tareas complejas durante décadas. Además de aviones voladores, las computadoras miran cuentas bancarias para detectar fraudes y adjudican reclamaciones de seguros. Una lección de tales aplicaciones es que, siempre que sea posible, las personas deben supervisar las máquinas. Para todos los chistes, los pilotos son vitales en caso de que ocurra algo que esté más allá del alcance de la inteligencia artificial. A medida que las computadoras se propagan, las empresas y los gobiernos deben asegurarse de que la primera línea de defensa sea una persona real que puede anular los algoritmos si es necesario.

Incluso cuando las personas no están «al tanto», al igual que con los automóviles totalmente autónomos, las leyes de responsabilidad actuales pueden ayudar. Los tribunales pueden tener dificultades para culpar cuando ni un algoritmo ni su programador pueden dar cuenta de sus acciones. Pero no es necesario saber exactamente qué sucedió en un cerebro, ya sea de silicio o de variedad biológica, para decidir si un accidente podría haberse evitado. En cambio, los tribunales pueden hacer la conocida pregunta de si un curso de acción diferente podría haber evitado razonablemente el error. Si es así, la responsabilidad podría recaer sobre quien vendió el producto o de quien ejecuta el sistema.

Hay otras preocupaciones, una máquina entrenada en datos antiguos podría tener dificultades con nuevas circunstancias, como cambiar actitudes culturales. Hay ejemplos de algoritmos que, después de ser entrenados por personas, terminan discriminando por raza y sexo. Pero la elección no es entre algoritmos prejuiciosos y humanos imparciales. Es entre humanos sesgados y las máquinas sesgadas que crean. Un juez humano racista puede existir sin corrección durante años. Un algoritmo que aconseja a los jueces se puede aplicar a miles de casos cada año. Eso arrojará tantos datos que los sesgos pueden detectarse y repararse rápidamente. Es probable que sufra algunos problemas, ¿cómo no? Pero también promete beneficios extraordinarios y las dificultades que plantea tienen precedentes. La gente debería mirar los datos, como lo hacen las máquinas. Los reguladores deberían comenzar con un toque ligero y exigir soluciones rápidas cuando las cosas van mal. Si las nuevas cajas negras resultan difíciles, habrá tiempo para endurecer las reglas.

Sabías que puedes leer este artículo y otros en Telegram

Pedro Luis Martín Olivares
Economía y Finanzas

Sé el primero en comentar en «Dentro de la caja negra»

Deja un comentario

Tu dirección de correo electrónico no será publicada.


*


*