El reciente intercambio entre los fundadores de Tesla y Facebook, nos recuerda que no todos ven el progreso en este campo como algo innocuo.
La mañana del martes pasado, el empresario y héroe de millones de geeks, Elon Musk, publicó un poco amable tweet sobre el fundador de Facebook. En referencia a los riesgos de la inteligencia artificial (I.A.), un tema sobre el cual ambos han discutido públicamente en el pasado, señaló que: “He hablado con Mark sobre esto. Su entendimiento del tema es limitado”.
Esta guantada digital no fue gratuita. El dueño de los cohetes SpaceX y de los autos eléctricos Tesla respondía así al comentario que Suckerberg había formulado sobre él dos días antes, en el que lo calificaba de alarmista por su posición “negativa” con respecto al impacto de la I.A. Si bien la resonancia en los medios no podía faltar, ambos son celebridades en Sillicon Valley, es importante precisar que lo sucedido no es más que una muestra del continuo debate que se está dando entorno a esta tecnología.
En sus seis décadas de existencia, la Inteligencia Artificial ha pasado por diversas definiciones. Citando a la doctora Elaine Rich, y para ubicarnos en la discusión, podemos decir que es “el estudio de cómo lograr que las máquinas realicen tareas que, por el momento, son realizadas mejor por los seres humanos”. Este estudio ha dado importantes progresos en los últimos años: hoy en día programas de computadora reconocen objetos en una fotografía, traducen en tiempo real mientras hablamos, conducen carros, pilotean aviones o ganan partidas de Go a los mejores jugadores del mundo… Ante estos avances, parece válido preguntarse qué más podrán hacer en el futuro y si esto puede significar una amenaza.
Elon Musk, quien en el año 2014 declaró en la universidad M.I.T. que la I.A. quizá sea la amenaza existencial más grande que encare la humanidad, no se encuentra solo. Más de tres mil investigadores en I.A. y robótica, junto a personalidades como Stephen Hawking o el cofundador de Apple Steve Wozniak, han firmado una carta abierta en la que se declaran en contra de las armas autónomas. Estas son capaces de seleccionar blancos sin la intervención humana, en base a criterios pre-definidos (por ejemplo, un hombre en el desierto que lleva una AK-47 y es captado por las cámaras de un drone), es decir, podrían automáticamente terminar una vida humana sin la intervención de ninguna persona.
Pero las armas autónomas, que pueden recordarnos a la rebelión de las máquinas de la película Terminator, no son el único riesgo. Existen otros más inmediatos, como el impacto en los empleos que podrán tener sistemas capaces de realizar tareas mejor que nosotros. Conductores de taxis y camiones es lo primero que se nos puede venir a la mente, pero diversos estudios de gobiernos y consultoras señalan que los sectores financieros, administrativos, construcción, retail entre otros se verían impactados por programas capaces de tomar decisiones propias.
Del otro lado, Suckerberg tampoco se encuentra solo. Muchos comparten su visión de que si uno argumenta contra AI, se está haciéndolo contra carros más seguros que no tendrán accidentes o contra mejores diagnósticos para la gente enferma. En general, con miles de aplicaciones que podrán hacer a la gente la vida más cómoda.
Con la noticia de esta semana, se me viene a la memoria una pugna similar entre empresarios. En las décadas del 1880 y 1890 el inventor Tomas Edison y el ingeniero George Westinghouse discutían sobre qué tipo de corriente sería la más segura para la gente: si la continua o la alterna. Igual que ahora, ambos tenían importantes inversiones comprometidas y se manifestaban en público sobre un tema técnico pero de gran impacto social. Como probablemente suceda en este caso, se requirió de varias décadas para ver quién tenía la razón.