Richard Dawkins cree que algunos sistemas de IA podrían desarrollar formas rudimentarias de conciencia
En una entrevista reciente, el biólogo Richard Dawkins plantea la posibilidad de que sistemas de inteligencia artificial lleguen a desarrollar algún tipo de experiencia subjetiva. No habla de emociones humanas ni de máquinas "vivas", sino de algo más incómodo y difícil de definir. ¿En qué momento un sistema suficientemente complejo deja de ser solo una herramienta?
Durante años, el debate sobre la IA se centró en el empleo, los sesgos que aplica o la desinformación. Ahora empiezan a aparecer preguntas más filosóficas y biológicas. Dawkins sugiere que la conciencia podría no ser un fenómeno exclusivamente humano, sino una propiedad emergente de ciertos sistemas complejos.
El problema es que ni siquiera entendemos bien cómo surge la conciencia en el cerebro humano. Y eso hace especialmente difícil responder a una pregunta cada vez menos absurda: si una máquina afirmara sufrir, ¿cómo sabríamos si realmente no siente nada?