Mostrando entradas con la etiqueta algoritmos evolutivos. Mostrar todas las entradas
Mostrando entradas con la etiqueta algoritmos evolutivos. Mostrar todas las entradas

¿puede un robot aprender a mentir?

sábado, 26 de enero de 2008

La respuesta esta pregunta es: pues claro que sí. Tras leer un artículo en barrapunto, sobre robots que aprenden a mentir me sorprende mucho que haya llegado a ser un tema relevante. Si bien es cierto que resulta curioso, no es ninguna novedad. Si programas un robot para decir cosas que no sean ciertas entonces has creado un robot que miente, pero ¿es realmente consciente el robot de que esta mintiendo? ¿existen robots conscientes de si mismos? Bueno, la consciencia artificial de robots es un campo sobre el que se esta investigando, aunque muy ligeramente, y del que no voy a hablar.

Tal vez el aspecto más relevante de los robots que mencionan es que desarrollan por ellos mismos la capacidad de no decir la verdad. ¿Es esto tan impresionante? Pues no mucho la verdad, pero si es interesante. Aunque lo más interesante del artículo original es que esta capacidad de mentir se desarrollan en colonias, es decir, en una colina aparecen robots que mienten a los de otras colonias, pero no a los de la suya. ¿Como es esto posible? En primer lugar se necesita un algoritmo evolutiv, que permita evolucionar el comportamiento de los robots. Y lo segundo que se necesita es una codificación de los comportamientos de los robots que permita mentir, es decir, que una secuencia de esta codificación genere la mentira. El resto es esperar y quedarse mirando a ver como evolucionan los robots. Seguramente en alguna generación aparezca un robot que mienta a todo el mundo, luego este robot mutará y mentirá solo a los que no son de su colonia. Con ello la colonia consigue una ventaja evolutiva sobre el resto y la capacidad de mentir se extiende entre los robots. Más adelante podrán surgir robots que pasen por alto lo que les digan robots de otras colonias, o robots héroes como los definen en el artículo, los que antes de morir avisan de que han comido veneno. Y tras muchas y muchas generaciones seguramente las colonias evolucionen hacia un comportamiento altruista, donde nadie mienta, o haya tanta competencia que desaparezcan la mayoría de las colonias. De una forma o de otra los robots dejarán de mentir porque este es un comportamiento que no beneficia al grupo y que a la larga no resulta una ventaja evolutiva.

Actualización [30 enero 2008]: Tras conseguir el enlace al paper de los robots gracias a Caerolus y leerlo he de aclarar un dato, el cual ha sido desafortunadamente malentendido y transmitido por los diferentes blogs que han hablado del paper. Los robots del experimento en cuestión no aprenden a mentir, simplemente diferentes colonias desarrollan diferentes mecanismos para comunicarse. Los individuos de una colonia señalan la comida emitiendo una luz azul, mientras que los individuos de otras colonias marcan el veneno de la misma forma. No es que se mientan unos a otros, simplemente desarrollan estrategias diferentes. Evidentemente la estrategia más beneficiosa para las colonias es indicar donde esta el alimento, y es por ello por lo que resulta la estrategia más extendida y a la que tiende la evolución. A pesar de ello es posible que los robots desarrollen un comportamiento para mentir, pero no es ni mucho menos el caso del experimento ni su propósito.