¿Es la aleatoriedad la panacea al dilema de la moralidad algorítmica?

¿Es la aleatoriedad la panacea al dilema de la moralidad algorítmica?

Estaba ayer viendo un capítulo de la segunda temporada de Real Humas (no Humans, el remake americano, sino la sueca del 2012 (ES)), y en un momento dado, un personaje al que llamaremos A (por no spoilear, más que nada), mantiene un interesante debate con otro (B), sobre si debe anteponerse, en el algoritmo que está desarrollando, la atracción por la muerte del instinto de supervivencia:

A: Mira esto, aquí estoy equilibrando la pulsión por la muerte al instinto de supervivencia. Un elección de lo más interesante, ¿no?

B: ¿Y cómo equilibras pulsión de la muerte e instinto de supervivencia?

A: ¿Tú qué crees?

B: A partes iguales.

A: Si están a partes iguales, ambas alternativas son buenas.

B: Pues prefiero que des preferencia a una de las dos.

A: ¿Y a cuál quieres que se la de?

B: A la de supervivencia.

A: ¿Por qué?

B: Bueno, si yo tuviera que elegir…

A: ¡Ahí! Precisamente ahí, es donde te estás equivocando. Si tú eliges acabas con la libertad. Eso destruiría el código.

B: Ya, pero si tu equilibras los dos y no das preferencia a una sobre otra, ¿qué pasará?

A: La capacidad de desarrollar estímulos propios se basa precisamente en estímulos externos…

Y la escena se corta para dar paso a la siguiente, pese a que de facto ha sido un guiño muy adecuado al detonante de toda la serie.

Es un simple diálogo, pero me hizo ponerme a pensar en un tema que ya hemos tratado en varias ocasiones por estos lares, y que retomo desde otra óptica.

Hablamos, como no podía ser de otra manera, de los dilemas morales a los que nos estamos enfrentando con la proliferación de la robótica, y en especial, con la conducción autónoma.

Seguir leyendo...

Inicia sesión para ver o añadir un comentario.