La inteligencia artificial (IA) está aprendiendo más sobre cómo trabajar con (y sobre) los humanos. Ahora, un estudio reciente ha demostrado cómo la IA puede aprender a identificar vulnerabilidades en los hábitos y comportamientos humanos y usarlos para influir en la toma de decisiones.

Tal y como explica Jon Whittle en un artículo publicado en The Conversation que recoge Science Alert, “puede parecer un cliché decir que la IA está transformando todos los aspectos de la forma en que vivimos y trabajamos, pero es cierto. Varias formas de IA están funcionando en campos tan diversos como el desarrollo de vacunas, la gestión ambiental y la administración de oficinas. Y aunque la IA no posee inteligencia y emociones similares a las humanas, sus capacidades son poderosas y se desarrollan rápidamente”.

Whittle advierte que “no hay necesidad de preocuparse por la toma de posesión de una máquina por el momento, pero este descubrimiento reciente destaca el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar el mal uso”.

Un equipo de investigadores de Data61 de CSIRO, la rama digital y de datos de la agencia científica nacional de Australia, ideó un método sistemático para encontrar y explotar vulnerabilidades en las formas en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado ‘red neuronal recurrente’ y aprendizaje de refuerzo profundo. Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra un ordenador.

El primer experimento involucró a los participantes haciendo clic en cuadros de color rojo o azul para ganar una moneda falsa, con la IA aprendiendo los patrones de elección de los participantes y guiándolos hacia una elección específica. La IA tuvo éxito alrededor del 70% de las veces.

En el segundo experimento, los participantes debían mirar una pantalla y presionar un botón cuando se les muestra un símbolo en particular (como un triángulo naranja) y no presionarlo cuando se les muestra otro (digamos un círculo azul). Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores y logró un aumento de casi el 25%.

El tercer experimento consistió en varias rondas en las que un participante se haría pasar por un inversor que da dinero a un fideicomisario (la IA). La IA luego devolvería una cantidad de dinero al participante, quien luego decidiría cuánto invertir en la siguiente ronda. Este juego se jugó en dos modos diferentes: en uno, la IA buscaba maximizar la cantidad de dinero con la que acababa, y en el otro, la IA tenía como objetivo una distribución justa del dinero entre ella y el inversor humano. La IA tuvo éxito en cada modo.

En cada experimento, la máquina aprendió de las respuestas de los participantes e identificó y apuntó vulnerabilidades en la toma de decisiones de las personas. El resultado final fue el aprendizaje automático para guiar a los participantes hacia acciones específicas.

Según Whittle, estos hallazgos “son todavía bastante abstractos e involucran situaciones limitadas y poco realistas. Se necesita más investigación para determinar cómo se puede poner en práctica este enfoque y utilizarlo en beneficio de la sociedad”.

“Pero la investigación avanza nuestra comprensión no solo de lo que puede hacer la IA, sino también de cómo las personas toman decisiones. Muestra que las máquinas pueden aprender a dirigir la toma de decisiones humana a través de sus interacciones con nosotros”, explica Whittle.

Según este experto, “la investigación tiene una enorme gama de posibles aplicaciones, desde la mejora de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social, hasta comprender e influir en cómo las personas adoptan hábitos alimenticios saludables o energías renovables. La inteligencia artificial y el aprendizaje automático podrían usarse para reconocer las vulnerabilidades de las personas en ciertas situaciones y ayudarlas a evitar las malas decisiones”.

Whittle prosigue: “El método también se puede utilizar para defenderse de los ataques de influencia. Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad (por ejemplo, al no hacer clic en algunas páginas o hacer clic en otras para dejar un rastro falso)”.

“Como cualquier tecnología, la IA se puede usar para bien o para mal, y la gobernanza adecuada es crucial para garantizar que se implemente de manera responsable”, reflexiona este experto.

“Las organizaciones que utilizan y desarrollan IA deben asegurarse de saber lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los posibles riesgos y beneficios”, concluye Whittle.

Tomado de: 20 Minutos

Califique nuestro contenido
[Total: 0 Promedio: 0]
Compartir en:
Ing. Evelio Carmenate Cisneros

Por Ing. Evelio Carmenate Cisneros

Especialista Superior de Salud en la Dirección de Informática y Comunicaciones del Ministerio de Salud Pública de Cuba.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *