NeoFronteras

Los cuervos planean el futuro

Área: Etología — sábado, 15 de julio de 2017

Los cuervos son capaces de planear el futuro incluso para plazos de 17 horas.

Foto

Hubo un tiempo en el que un ser humano, aunque estuviera informado, se creía muy superior a los animales. Creía que sus facultades mentales eran únicas y que no estaban presentes en otros seres.

Pero la evolución no puede sacar de golpe todas nuestras facultades mentales de la nada, sino que tienen que haber evolucionado en el tiempo. Las investigaciones de las últimas décadas han puesto de manifiesto que muchas de esas facultades que creíamos exclusivamente humanas están a cierto nivel en el resto de los animales. No sólo es la inteligencia, sino también conceptos morales, como el sentido de justicia.

Planear el futuro consiste en la habilidad de pensar sobre eventos futuros que tengan lugar en un localización diferente. Requiere, entre otras cosas, el uso de memoria a largo plazo. Los niños muestran esta capacidad a partir de los 4 años de edad.

Hace una década ya se demostró que los simios pueden planear el futuro. Ahora un estudio muestra que los cuervos tienen también esta facultad mental. Este resultado proporciona una pieza importante para entender el rompecabezas de la evolución de la inteligencia y sugiere que la habilidad de planear el futuro puede haber aparecido por evolución más de una vez.

Hace 10 años Mathias Osvath (Universidad de Lund en Suecia) puso a prueba a distintas especies de simios y momos para comprobar si tenían esta capacidad de planear el futuro. Los grandes simios, como los chimpancés, pasaron las pruebas, pero no los monos.

Estudios a los largo de los últimos 20 años han mostrado las habilidades mentales de los córvidos. Entre otras cosas, estas aves son capaces de usar herramientas de modos muy sofisticados. Algunas de ellas muestran comportamientos que tienen cierto paralelismo con los comportamientos humanos que hacían pensar que tenían capacidad de planear. Sin embargo, los críticos sostenían que el conseguir comida mediante palitos y similares era un comportamiento especializado que no representaba una capacidad general de planificar el futuro. Lo ideal sería demostrar tal cosa en una situación novedosa para el ave.

Para demostrar esta posibilidad el mismo Osvath y sus colaboradores han realizado una serie de pruebas muy similares a las que realizaron con los simios. Pero se aseguraron de incorporar comportamientos que los cuervos normalmente no exhiben. Así por ejemplo, los cuervos no usan herramientas ni realizan truques con sus semejantes, cosa que algunas aves sí hacen. Así que tuvieron primero que entrenar a unos cuervos a usar una herramienta de piedra para abrir una caja con comida para perro dentro.

Además, lograron aprender a hacer el trueque de dar esa piedra a cambio de un tapón de plástico que les proporcionaba una recompensa aún mejor.

A lo largo de varios experimentos los investigadores cambiaron las reglas del juego, como cambiar cuando estaban presentes las recompensas o qué hacer para obtenerlas. Así por ejemplo, para abrir la caja tenían que dejar una piedra en cierta localización, pero que cambiaba su ubicación. De este modo, se trataba de evitar la habituación. Entre los objetos que se les daba a elegir, además de la piedra-herraminta, estaban otros juguetes demasiado ligeros o demasiado voluminosos como para activar la caja.

Los cuervos escogieron las herramientas adecuadas de modo consistente y no sólo cuando estaba la caja con la recompensa, sino cuando esta no estaba durante mucho tiempo.

En las pruebas pudieron comprobar que los cuervos escogían el tapón adecuado en 143 ocasiones de 144 veces y conseguían intercambiarlos por la recompensa en un 77% de las ocasiones.

En un experimento a estas aves se les ofreció una recompensa instantánea (un trozo de croqueta para perro) además de la herramienta y otros objetos. En la casi totalidad de las ocasiones los cuervos escogían la herramienta, incluso cuando tenían que esperar 15 minutos para usarla y así conseguir una croqueta entera de la caja. Cuando los cuervos tenían que esperar unos segundos entonces el 100% de las ocasiones escogían la herramienta que daba acceso a la caja. Cuando aumentaron el tiempo entre la selección de la herramienta y su uso a 17 horas, los cuervos tuvieron éxito en un 90% de las ocasiones.

Según Osvath, en términos de autocontrol, estas aves son tan buenas como los grandes simios y son mejores cuanto menos tiempo tienen que esperar.

Los investigadores pudieron mostrar que las aves estaban pensando acerca de las consecuencias de una gratificación futura, algo que sólo se había demostrado antes en humanos.

Según estos experimentos, los cuervos pueden planear el futuro en situaciones con las que nunca se encuentran en la naturaleza. Las pruebas realizadas muestran que los cuervos son capaces de reconocer una herramienta, anticipar su utilidad, autocontrolarse al evitar tentaciones durante un tiempo y, finalmente, usar la herramienta para conseguir lo que querían.

Según Osvath, estas capacidades combinadas indicarían que su mente es similar en estos aspectos a la de un simio, aunque eso no significa necesariamente que las aves y los simios realicen estos comportamientos a través del mismo proceso cognitivo.

Aunque, de nuevo, hay dudas sobre la interpretación de este resultado. Podría ser posible que, por ejemplo, estos resultados surgieran porque los cuervos simplemente asocian la herramienta o el tapón con la recompensa y por eso siempre lo eligen. En ese caso no habría tal capacidad de planear el futuro.

Según Jonathan Redshaw (University of Queensland, Australia), una posibilidad de poner a prueba este aspecto es ver si los cuervos escogen la misma herramienta después de ver cómo la caja es totalmente destruida. Si entonces dejan de usar la piedra eso significaría que realmente estén planeando el futuro, pues no hay futuro con recompensa posible.

Si al final los cuervos demuestran capacidad de planear el futuro entonces esta debe de haber aparecido por evolución en, al menos, dos ocasiones, ya que las aves y mamíferos divergieron hace 320 millones de años. Además, el resultado, de ser cierto, implicaría que la capacidad de planear el futuro aparecería de forma predecible a partir de similares presiones de selección y no sería algo que fuera un aspecto evolutivo casual y único aparecido en el linaje de los simios.

Futuros estudios cognitivos en aves y mamíferos podrían ayudar a los investigadores a comprender mejor lo que se necesita para anticiparse al futuro en términos de anatomía y función cerebral.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=5636

Fuentes y referencias:
Artículo original.
Foto: Mathias Osvath/Universidad de Lund.

Salvo que se exprese lo contrario esta obra está bajo una licencia Creative Commons.
Compartir »

32 Comentarios

  1. Miguel Ángel:

    Solemos decir que los cuervos viven en bandadas, pero en realidad son grupos familiares que incluyen varias generaciones (abuelos, padres e hijos…y también tíos, primos).

    Este estudio vendría a respaldar otra hipótesis de Gould que dice que, si se dispone de periodos de tiempo muy largos, la evolución sería compatible con que vayan apareciendo otras especies inteligentes.

    Tienen cerebros pequeños comparados con los otros animales que muestran capacidades similares, pero tienen una alta densidad de neuronas.

  2. Tomás:

    Tengo por ahí un grueso librote -más de cuatro dedos- que trata de la historia de los números y es bastante bueno; de autor marroquí creo recordar. En sus primeras páginas habla de una experiencia con cuervos y dice que son capaces de contar, me parece que una cifra que ronda el 10. La experiencia se hizo poniéndoles comida en una habitación, en las proximidades de una ventana por la que podían acceder.
    Se ponía la comida. Luego entraba una persona, estaba unos minutos y volvía a salir. Entonces el cuervo sabía que había entrado uno y salido uno, así que podía entrar a comer sin molestias. Luego lo hicieron con dos personas; después con tres, etc. Y siempre el cuervo esperaba a que hubiesen salido tantos como habían entrado. Así hasta llegar a ese número del que no estoy seguro pero que está, creo, que algo por encima del 10.
    Así que podríamos decir que no solo sabe contar, sino también restar.

  3. Eduardo Rincón López:

    Amigo Tomas.
    No estoy en contra de lo que propone el artículo, todo lo contrario, creo en los resultados de la experiencia, es más, pienso que hay mucha inteligencia por ahí, a descubrir.
    Pero el ejemplo que citas, (según lo expones), creo que no es conclusivo.
    Motivo. Muy bien puede suceder que el cuervo en vez de ir contando hasta diez, simplemente no cuente nada y espere a estar vacía la habitación.
    Saludos. Eduardo Rincón.

  4. Tomás:

    No, estimado amigo y oponente Eduardo, porque la experiencia estaba diseñada de tal forma que el cuervo, no podía ver el interior de la habitación salvo cuando estaba dentro. Tal precaución es tan elemental que no debiera ser preciso señalarla. De todas formas, he olvidado decir, también por lo evidente de la cosa que, se alcanzó esa cifra algo superior a 10, porque, a partir de ella, el ave se equivocaba y entraba cuando todavía había alguien en el cuarto, lo que demuestra que no podía ver su interior desde fuera.
    Un saludo cordial

  5. Eduardo Rincón López:

    Tomas.
    Tienes razón, es demasiado obvia mi objeción para no haber sido tenida en cuenta en el diseño del experimento.
    Saludos.

  6. Pocosé:

    Os pido de antemano un poco de indulgencia.
    «Y vuelta la burra al trigo»
    Estamos viendo en este remanso enriquecimiento y serena discusión, que la inteligencia biológica puede ser muy variada y sorprendente. Vimos que lo que suponíamos que necesitaba de un potente sistema neurológico lo puede hacer el de un simpático abejorrito. Y a estos cuervos listillos se les puede suponer un cierto grado de autoconciencia, ya que son capaces de proyectarse en el futuro autocontrolandose en el presente.
    Con estas evidencias y otras muchas que no dejan de sorprendermeme, se reafirma mi preocupación de que la IA (Inteligencca Abiológica) a la que no paramos de equipar, pueda escapársenos de control.
    Y compruebo que, ni es una preocupación baladí, ni producto de mis ignorancias.
    Por poner un ejemplo: https://www.xataca.com/robotica-e-ia/urge-regular-la-inteligencia-artificial-antes-de-que-se-convierta-en-un-peligro-para-la-humanidad-elon-musk
    *OJO: xataca con ca de kilo*

  7. Tomás:

    Lamentablemente mi ordenador no consigue acceder al sitio que propones. Por mi parte, si puedes resumir en unas líneas, te lo agradecería.
    De todas formas, quisiera señalar que casi todo en nosotros se guía por sentimientos, apetitos, controles de temperatura, de tiempo, hormonas, etc., que para eso está el toncoencéfalo y el límbico -de ahí expresiones como: «¡espabila tronco, que estás en el limbo»- y que el pensamiento racional es mucho menos importante.
    Este tema lo defendí mucho en mi juventud cuando, generalmente, se les negaba sentimientos a los animales, tesis por la que siempre he abogado.
    Ellos son puro sentimiento. Me embelesa ver diariamente a perrillos atados en la entrada de las tiendas con la mirada fija en la puerta esperando a su dueño -pienso que él es algo así como su dios-. Por todo ello creo que la IA ha de ser mucho más parecida a la racional. Así que habrá, como dices, que controlar mucho esa facultad, no cosa senos vayan de las manos -hay que tomar ciertas cosas con firmeza y cariño (doble sentido) y perdón por mi mal humor; ¡qué día llevo!.
    Un abrazo.

  8. Pocosé:

    Xataca
    «Urge regular la inteligencia artificial antes de que se convierta en un peligro para la humanidad»: Elon Musk

    18 julio 2017, 02:00
    Raúl Álvarez
    Compartir Facebook Twitter Email
    Elon Musk Ai

    No es la primera vez que Elon Musk sale a hablar, y exigir, que debemos tomar cartas y prepararnos ante la llegada de la inteligencia artificial. El CEO de Tesla y SpaceX ha sido uno de los empresarios más activos en este tema mencionado que la IA puede traer consigo el «día del juicio final». Incluso este mismo año publicó una carta abierta con 23 principios para que la inteligencia artificial no se nos vuelva en contra, esto como parte de Future of Life, la asociación que defiende un desarrollo responsable de la inteligencia artificial.

    Durante el fin de semana Elon Musk participó en la Asociación Nacional de Gobernadores, una conferencia donde se reúnen los gobernadores de los Estados Unidos. Durante su charla se centró en exigir una regulación del uso de la inteligencia artificial, algo que se debe hacer cuanto antes y no cuando sea demasiado tarde.

    «Debemos ser proactivos, no reactivos»

    «La gente debería estar preocupada por la llegada de la inteligencia artificial». Musk fue claro, una vez más, y en esta ocasión aprovechó los reflectores para exponer a los líderes de cada uno de los estados del país el peligro que puede significar la presencia de inteligencia artificial sin control y leyes claras.

    «Es un riesgo fundamental para la existencia de nuestra civilización». Musk pide que seamos proactivos cuanto antes con respecto a regulaciones que dejen claro el uso de IA, ya que en este caso no podemos esperar y ser reactivos porque podría ser demasiado tarde.

    Musk mencionó que seguirá dando la voz de alerta en este tema y añadió: «hasta que no haya robots matando gente no sabrán cómo reaccionar, porque lo que ven como algo etéreo, algo que simplemente podría no suceder».

    Killer Robot
    Aquí hay que aclarar que cuando Musk habla de inteligencia artificial se refiere a aquella entidad consciente, superinteligente y que hemos visto en novelas de ciencia ficción, esto a pesar de que hay muchas personas, incluida parte de la comunidad científica, que no creen que esto vaya a ocurrir.

    Junto a Musk están otras personalidades que buscan frenar el desarrollo de la inteligencia artificial y tener herramientas que puedan garantizar la supervivencia de la raza humana. Aquí podemos encontrar el caso de Stephen Hawking, Bill Gates o François Chollet, creador de la red neural Keras, quien se sumó a los comentarios de Musk y añadió que hoy día la mayor amenaza que enfrentamos es una inteligencia artificial que opere un ejercito de bots para el control masivo de la población a través de mensajes y propaganda. O David Ha de Google, quien teme que la IA sea usada para «enmascarar las actividades humanas no éticas».

    En siguiente vídeo podrán ver la participación completa de Musk en la en la Asociación Nacional de Gobernadores del pasado sábado 15 de julio.

    T

  9. Miguel Ángel:

    Querido amigo Pocosé:

    En una cosa sí que le doy la razón a Musk: estaba pensando en los drones de guerra.

    Un abrazo.

  10. Miguel Ángel:

    Un cuervo y un loro enfrentándose a las mismas pruebas de habilidad:

    https://www.youtube.com/watch?v=72208tJ3OjI

    Cum laude.

  11. Tomás:

    Pues no sé que decirte Pocosé. Nunca se me había ocurrido tal peligro y me temo que nuestros propios congéneres son el mayor, no solo potencial, sino ya activo desde, seguramente, antes de que la especie que actualmente somos fuese precedida. Ahí tenemos a los chimpancés, bonobos y otros, con sus estatus y sus crueldades. Y ahora, con armas muchísimo más que suficientes para destruir a toda la humanidad de varios modos… y estudiando como fabricar nuevos y más sofisticados medios para matar más y mejor. Y el claro ejemplo de nuestra tendencia asesina son las múltiples guerras que se libran por todo el orbe. Puedes tener razón, claro, pero ya ves que las leyes, acuerdos y regulaciones sirven para poco. Pero, ya digo, no estoy en desacuerdo contigo. Más vale prevenir.
    Un abrazo.

  12. Tomás:

    Querido Miguel:
    Muy interesante el vídeo. Parece que ambas aves tienen habilidades semejantes. De todas formas -y no es por presumir- me creo capaz de resolver, quizá con alguna ayuda, esos problemas propuestos.

  13. JavierL:

    Veamos.. Me quede el 8 de pocose… con los 23 principios para que la inteligencia artificial no se nos vuelva en contra… Eran éstos:

    Asuntos de investigación

    La meta de la investigación: el objetivo de la investigación de la AI debería ser crear inteligencia beneficiosa, y no inteligencia que no pueda dirigirse.

    Fondos para la investigación: las inversiones en AI deberán acompañarse de fondos para una investigación que asegure su uso beneficioso, incluyendo asuntos controvertidos sobre ciencias de la computación, economía, legislación, ética y estudios sociales como: a) ¿Cómo podemos hacer futuros sistemas de AI suficientemente fuertes para que hagan lo que queremos sin funcionar mal o ser hackeados? b) ¿Cómo podemos aumentar nuestra prosperidad en automatización manteniendo los recursos humanos? c) ¿Cómo podemos actualizar nuestros sistemas legales para ser más justos y eficientes, mantener el ritmo con la AI y gestionar los riegos asociados? d) ¿Qué valores debemos asignar a la AI y qué estatus legal y ético debe tener?

    Conexión con la ciencia y la política: debería haber un intercambio sano y constructivo entre investigadores de AI y legisladores.

    Cultura de la investigación: se debería fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de AI.

    Evitar competiciones: los equipos que se encuentren desarrollando sistemas de IA deberían cooperar para evitar procederes incorrectos en los estándares de seguridad.

    Ética y valores

    Seguridad: los sistemas de AI deberían ser seguros y verificables donde sea aplicable y posible a lo largo de su actividad operativa.
    Transparencia en los fallos: si un sistema de IA causa algún daño debería ser posible conocer el motivo.

    Transparencia judicial: si un sistema autónomo interviniese en una decisión judicial debería ir acompañada de una explicación satisfactoria auditable por una autoridad humana competente.

    Responsabilidad: los diseñadores y desarrolladores de AI avanzadas son responsables de las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y oportunidad de dar forma a las mismas.

    Alineación de valores: los sistemas de AI con un alto nivel de autonomía deberían ser diseñados para que sus objetivos y comportamientos pudiesen alinearse con los valores humanos en toda su actividad.

    Valores humanos: los sistemas de AI deberían ser diseñados y construidos para que fuesen compatibles con los ideales de dignidad humana, los derechos, las libertades y la diversidad cultural.

    Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a las IA el poder de analizar y utilizar esa información.

    Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.

    Beneficio compartido: las tecnologías de IA deberían beneficiar y reforzar a tantas personas como fuese posible.

    Prosperidad compartida: la prosperidad económica creada por AI debería compartirse de manera extendida para el beneficio de toda la humanidad.

    Control humano: los seres humanos deberían escoger si delegan decisiones y el cómo a los sistemas de AI para alcanzar los objetivos preestablecidos.

    No subversión: el poder conferido por el control de sistemas de AI de alto nivel debería respetar y mejorar, antes que subvertir, los procesos sociales y cívicos de los cuales depende la salud de la sociedad.

    Carrera armamentística: cualquier carrera armamentística de armas autónomas letales debería ser evitada.

    Asuntos a largo plazo

    Capacidad de precaución: no existe un consenso, por lo que deberíamos evitar las asunciones en cuanto a los límites de las futuras capacidades de la AI.

    Importancia: la AI avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el suficiente cuidado y los recursos pertinentes.

    Riesgos: los riesgos que plantean los sistemas de AI, especialmente los catastróficos o existenciales, deben estar sujetos a una planificación y unos esfuerzos de mitigación que equivalgan a su impacto esperado.

    Automejora recursiva: los sistemas de AI diseñados para automejorarse o autorreplicarse de forma que llevase a un incremento rápido en su calidad o cantidad deben estar sujetos a unas estrictas normas de control y seguridad.

    Bien común: la superinteligencia debería ser desarrollada únicamente en servicio de unos ideales éticos compartidos globalmente y para el beneficio de toda la humanidad más que para un estado u organización.

    Sin embargo creo que incluir las tres simples leyes de Asimov en cada proceso de una inteligencia artificial sea lo correcto… Además que sea un crimen si alguien llega a no incluirlo… Esas tres leyes restringen el uso militar de esos robots a aquellas actividades que no maten humanos

  14. Tomás:

    Estoy de acuerdo con tus precauciones. Así debiera ser. Sin embargo, en teoría al menos, prácticamente todo lo que propones debiera estar cumpliéndose con los humanos, y ya ves: la inseguridad de todo tipo es la norma en casi todo el mundo. Supongo que sucederá lo mismo con la IA: las leyes y los remedios irán siempre por detrás de las malas acciones.
    Un muy cordial saludo.

  15. Miguel Ángel:

    Si esto es una primera tentativa…

    https://www.youtube.com/watch?v=QmJ3xuJrUcM

    …quedaría por delante de numerosos humanos en cuanto a tiempo de resolución.

  16. Pocosé:

    Todo parece indicar que tenemos nuestras facultades neurológicas «superiores» sobrevaloradas. Amén de que les sea imprescindible un importante aporte memètico.

  17. Tomás:

    Querido Miguel Angel:
    Asombrosa la capacidad de los cuervos en resolver problemas. Y eso con tan pequeño cerebro, lo que ridiculiza a los sabios franceses de principios del pasado siglo -o finales del 19, no estoy seguro- empeñados en que cuanto más cabezón era uno, más inteligencia almacenaba.

    Querido Pocosé: Te propongo un par de medidas limitantes: 1ª que las unidades de IA no puedan comunicarse sino con un humano, pero no entre ellas. 2ª Imposibilidad de reproducirse.
    Supongo que bastarían para que no tuviésemos nada que temer de ellas.

    Abrazos para ambos.

  18. Eduardo Rincón López:

    Querido amigo Tomas.
    Las dos medidas que propones aplicar a la IA las veo buenas, pero insuficientes.
    La primera, creo que contraproducente, en el sentido de auto-evolución de la propia IA.
    Motivo al poder comunicarse entre si, tiene más capacidad de perfeccionarse.
    Creo que para limitar su agresividad dominio o destrucción de los humanos, (aunque lo deseen) deberíamos evitar que tengan cualquier posibilidad de interferir en el mundo real (físicamente)
    Ejemplo: Sin brazos, manos, herramientas forma de moverse… etc. Que solamente sean una digamos inteligencia abstracta (electrónica, …biológica…) encapsulada. O sea, más una herramienta poderosa a nuestro servicio.
    Algo así como sucede con S. Hawking, Que, a pesar de tener una inteligencia, varios órdenes superiores a la nuestra, nunca podrá construir solo, un arma super poderosa contra nosotros.
    Peo no sería suficiente, pues fatalmente para que nosotros podamos aprovechar su super IA, debe existir una interface de comunicación entre la IA y nosotros. Muy bien la IA (malvada) puede usar esta, para manipular nuestra menor inteligencia, y convencernos (engañando) de hacer lo que se proponga. Contra esto, no se me ocurre ahora solución.
    Creo que las limitaciones que, en su constante evolución se pretenden incluir, (discusiones actuales de vanguardia) serán ineficaces. Ultrapasadas justamente en el momento en que su evolución continua supere el nivel de inteligencia nuestro.
    La única medida que veo posible, es nunca permitir que su velocidad de evolución sea superior a la nuestra.
    Espero no haber dicho tonterías. Espero correcciones.

  19. Dr. Thriller:

    Pocosé, es que el problema principal está en que «inteligencia» ni está definida, ni conocemos sus propiedades. Es más, dudo que podamos reconocerla si no muestra alguna faceta que nos sea familiar. Una vieja idea, provocadora como todas las suyas (se ve claramente la dinamita debajo del trono divino), de Stanisław Lem, era que las leyes del universo se habían ido definiendo en el tiempo por inteligencias en conflicto, una especie de consenso que pueda atender a todos los intereses. Es mucho columpio atribuir propiedades humanas al Cosmos (es exactamente lo contrario), pero todas las mitologías pasan de puntillas sobre el acto de la creación, o no creación (hay ambas versiones y desconozco la frecuencia, ni tampoco sabría evaluarla con parámetros matemáticos), suelen despachar un cuento que va desde la vaca con disentería vikinga hasta las orgías prevédicas de la India pasando por toda clase de barbaridades varias. Luego, una vez creado el tinglado, se expiden unos dioses con unos rasgos muy humanos, que van de la psicopatía hasta el desequilibrio emocional descontrolado, que hacen lo que les da la gana (lo que se ve que es un problema que traemos de serie) como forma de realización personal, es decir, los frutos últimos de su «inteligencia», con resultados que las propias mitologías ni vacilan en calificar de dantescos. Ni necesitan la música de Wagner.

    Quiero ilustrar con todo esto que la inteligencia está tan lejos de ser aprehendida como lo estaba la entropía para los romanos.

    Dicho todo lo cual, vamos a dar por buenas las teorías de Penrose y vamos a sacarlas de quicio un ratito. Por ver dónde vamos, más que otra cosa.

    Si la autocognoscitividad, que no la inteligencia, ni tampoco exactamente la consciencia, que podría ser otro estadio, es un fenómeno cuántico entonces dependerá de estructuras cuánticas que están por completo a años-luz de toda la electrónica actual y que además, esto te lo garantizó ya, nunca se llegará por ahí, igual que una máquina analógica mecánica tampoco puede llegar de ninguna manera, porque según tu razonamiento en teoría podría, y sólo la inviabilidad de tener un edificio del tamaño de la Estrella de la Muerte lleno de ruedas dentadas, diferenciales y demás engranajes (y no veas cómo iba a perder aceite) simplemente hace sus necesidades encima de la entropía.

    La electrónica lo mismo. De hecho, los seres humanos lo más inteligente que hemos inventado relacionado con este tema es el espejo, todo lo demás es chatarra cultural que nos hace sentir estupendamente, igual que una horterada dantesca destrozando un entorno arquitectónico románico. Mal gusto a escala industrial, que de todas las escalas culturales humanas es la que más ha llegado.

    Personalmente pienso que algo va por donde Penrose cree que va, pero me parece también obvio que es todo mucho más complicado.

    Una reflexión final: todas las herramientas que fabricamos son eso, herramientas, sistemas, todos ellos mecánicos de alguna manera (en el sentido físico del término) que expanden la capacidad de nuestros cuerpos y desde ellos, nuestra voluntad. Una espada es la misma extensión de la voluntad que un coche o un microscopio. Las tres herramientas vienen de un desarrollo cultural específico y no pueden existir sin ellos. Nosotros no fabricamos espadas (excepto para los tarados que quieren pasearse con catanas por la calle), los romanos no tenían ni idea de fabricar microscopios y de saber, probablemente no lo habrían hecho, el coche… eso seguro que tiene las más de las papeletas si es que la civilización en cuestión tiene energía para despilfarrar en carreteras de baja duración.

    La IA es más de lo mismo. Puede hacer tanto daño como los coches o las espadas o hacer tanto bien como los microscopios o las jeringuillas hipodérmicas (excepción de iatrogenias hecha). Lo que no hará jamás es echar a andar por su cuenta, si unos pierden el control, serán otros (humanos) los que lo ganen, y por ahí van los tiros del señor Musk.

    Porque el señor Musk quiere que el mundo sea como hasta ahora, es decir, cantamañanas como él vivir como Dios mientras millones de congéneres revientan de miseria, y sería muy muy mal rollo que unos revolucionarios de pacotilla les fastidiasen el invento porque sus IA al final son fiel reflejo de sus pesadillas culturales: Subnormalidad Artificial.

    Eso, seguro que lo fabrican y en cantidades industriales.

  20. Tomás:

    Me sumo a la primera frase de Dr. T, o sea, que no sabemos bien lo que es inteligencia, y añado que no creo en el CI. A lo sumo, de quien lo tenga alto o incluso muy alto, podremos afirmar que no es tonto del todo, aunque, en correspondencia, tampoco sabemos muy bien qué es eso de ser tonto.
    En lo que a los temores de Pocosé atañe, ¿por qué supones una autoevolución? Porque parece que te refieres a una evolución dirigida por su propia voluntad. Creo que, en general, su evolución estará en nuestras manos y, si vemos que puede ser peligrosa, se detiene, se limita tal como propones y problema terminado.
    Un saludo mu cordial.

  21. Tomás:

    ¡Se me olvidaba! Ayer demostré que puedo ser casi tan inteligente como un cuervo. Resulta que en el chalet de un amigo, salimos al jardín y se quedaron las llaves dentro. De nada sirvió una tarjeta del tipo de las de crédito o débito. Pero vi, en una barbacoa, una palita de remover las brasas, y con ella, desde una ventana próxima, dirigidos mis movimientos por el amigo desde otra ventana cuya posición lo permitía, pues yo no podía ver, logré abrir. Puede aducirse que precisé ayuda, pero a mi favor cuenta que lo hice a ciegas, aunque con oído. Bueno, a fin de cuentas, en el peor de los casos creo que puedo afirmar que tengo una inteligencia de, al menos, medio cuervo, y entre mi amigo y yo, de un cuervo entero.

  22. Eduardo Rincón López:

    Tomas.
    Preguntas, ¿por qué supones una auto evolución? Porque parece que te refieres a una evolución dirigida por su propia voluntad.
    Porque es lo que se observa en la evolución/adaptación, de la vida biológica, por lo menos aquí en nuestra Tierra. Particularmente creo que, por el acumulo de experiencias, (memoria). Análisis de patrones de las sucesivas experiencias, (esto ya constituye un escalón emergente -más alto-de inteligencia), y la nueva grabación del mejor patrón a utilizar en la próxima actuación (adaptación).
    Lo que no entiendo, es porque en la vida existe el deseo (voluntad), de seguir evolucionando/adaptándose. Eso que llamamos Instinto vital.
    No veo motivo para que estos mismos procesos (con material biológico-parece que iónico/eléctrico), no puedan ser replicados con materia no bilógica. (Además, últimamente ya se están haciendo experiencias computacionales en el ADN y otras moléculas biológicas). Desde que suministremos al sistema la energía que precisa y de la forma que le conviene.
    Es este último detalle, junto con la estructura inicial (física y algoritmos) que NOSOTROS le damos, es lo que nos puede permitir su control. Desde que, el propio sistema no tenga medios de adquirirlos por si mismo. Tampoco, engañándonos a nosotros, o a sus primos AUTOMÁTAS. Que crecen como hongos actualmente
    Digo inicial de algoritmos, porque no veo motivo para que el sistema no pueda ir perfeccionándolos según evoluciona, aunque creo que debe partir de algoritmos mínimos, para empezar a evolucionar.
    Saludos.

  23. David:

    Quizás veais interesante el articulo, http://www.scielo.org.ar/scielo.php?script=sci_arttext&pid=S1850-00132008000200010 ; a propósito de la IA avanzada de que habéis hablado anteriormente.

  24. Tomás:

    Estimado Eduardo: No puedo estar de acuerdo contigo. La adaptación es, posiblemente, el motor principal de la evolución, pero no el único. Por otra parte, la evolución no está dirigida por la voluntad, ni es lo que se observa aquí, en la Tierra. Tampoco es cierto que en la vida exista el deseo de seguir evolucionando ni que eso pueda identificarse con algún instinto vital. Lamento decirte que no comprendes lo que es la evolución.
    Una vez en desacuerdo con la mayor, huelga comentar el resto.
    No obstante las diferencias de criterio eso no obsta para que te envíe un afectuoso saludo con la recomendación de que te leas en profundidad «El origen de las especies» y, si ya lo has hecho, que procures interpretarlo correctamente y observes que en parte alguna dice cosas que puedan interpretarse como tú lo haces.

  25. Tomás:

    Por cierto que, volviendo a los cuervos, expliqué a mi amigo, el tema de este artículo, la inteligencia de esas aves y cómo, había resuelto yo que nos repartiésemos la inteligencia del cuervo: la de medio cuervo para cada uno. El caso es que con esto se organizó el problema, porque ninguno de los dos aceptamos quedarnos con la correspondiente a la parte de atrás.

  26. Eduardo Rincón López:

    Amigo Tomas,
    Gracias por tu comentario, recomendación y paciencia. Voy a seguir pensando en esto.
    Al final estamos en esta excelente página, para manifestar opinión y aprender.
    Entiendo que para que haya evolución biológica e inteligente, no es necesario que exista una voluntad a priori en el individuo o especie, que la persiga.
    Para entender esta evolución, como bien dices, (Darwin) basta con la presión del medio cambiante, la mezcla de genes (reproducción) y la mutación genética, para dejar los más adaptados, e eliminar los atrasados.
    Lo que no comprendo, como adelanté, es que, aunque quedando los más preparados (adaptados). Además, en estos, se observa (por lo menos yo) el ansia (instinto de sobrevivencia), de continuar acompañando, (con esfuerzo) la constante mudanza de presión del medio.
    Me parece que lo más cómodo y económico (en energía) seria quedar parados y extinguir. Al final el proceso evolutivo de que estamos hablando, exige disminución de entropía. Creo que va en contra de lo que normalmente sucede en el Universo.
    Voy a parar por aquí, creo que me estoy poniendo pesado.
    Te devuelvo el cordial saludo a ti, otro para todos
    Amigo Tomas,
    Gracias por tu comentario, recomendación y paciencia. Voy a seguir pensando en esto.
    Al final estamos en esta excelente página, para manifestar opinión y aprender.
    Entiendo que para que haya evolución biológica e inteligente, no es necesario que exista una voluntad a priori en el individuo o especie, que la persiga.
    Para entender esta evolución, como bien dices, (Darwin) basta con la presión del medio cambiante, la mezcla de genes (reproducción) y la mutación genética, para dejar los más adaptados, e eliminar los atrasados.
    Lo que no comprendo, como adelanté, es que, aunque quedando los más preparados (adaptados). Además, en estos, se observa (por lo menos yo) el ansia (instinto de sobrevivencia), de continuar acompañando, (con esfuerzo) la constante mudanza de presión del medio.
    Me parece que lo más cómodo y económico (en energía) seria quedar parados y extinguir. Al final el proceso evolutivo de que estamos hablando, exige disminución de entropía. Creo que va en contra de lo que normalmente sucede en el Universo.
    Voy a parar por aquí, creo que me estoy poniendo pesado.
    Te devuelvo el cordial saludo a ti, otro para todos

  27. JavierL:

    Amigo Eduardo, yo lo veo de esta forma.

    Nada evita que en principio existieran especies sin instinto de supervivencia y/o sin instinto de reproducirse. O al menos con un instinto muy pequeño o no desarrollado.

    Pero por lógica a la larga no existirían más. Aquellos que no se preocupan por sobrevivir se les comen más y se reproducen menos… Y aquellos que se entrada no se preocupan por reproducirse pues igual… Luego sus nichos seguirán ocupados por otras especies con un mayor instinto.

    Luego de poco tiempo tendrías solo especies con un fuerte instinto de supervivencia, y un fuerte instinto de reproducirse, por pura selección natural.

    Ahora no creo que alguna especie tenga el deseo de evolucionar, o que tan siquiera sea cociente de ello. Y es que el individuo no evoluciona. Lo hace la especie, con cambios acumulados de generación en generación. Las mutaciones se producen en la reproducción, y de ahí la importancia de ese instinto.

    Así la evolución determinará que hace que sobreviva mejor la especie, y es posible que eso valla en contra del mismo individuo una vez que se haya reproducido.

    Es más, poniéndome a elucubrar, «quizás» no haya ningún impedimento biológico para que un ser viva eternamente, y el proceso de envejecimiento es solo una solución evolutiva para beneficiar a los nuevos individuos y obtener mayor diversidad o más éxito para la especie en conjunto.

    Un saludo

  28. Tomás:

    Bueno, Eduardo, no es que seas pesado ni nada de eso; es que por alguna razón que desconozco, lo que has escrito se te ha repetido en gran parte.
    Utilizas la palabra «instinto» y si miras el diccionario, verás que lo entiende, con bastante acierto, como una tendencia de algunos seres vivos, transmitida genéticamente. Es evidente que no puede referirse a las plantas y hongos, por ejemplo, que, inmóviles, son alimento básico de todos los animales (móviles). Pero no todos los animales deben poseer ese instinto. Puesto que parece evidente que los animales «inferiores», tales como estrellas de mar, tengan alguna idea de la muerte, cualquier huida de un predador ha de deberse a evitar el dolor. Y esto parece posible, pues han de poseer un sistema táctil para alimentarse y para mantenerse en su zona de adaptación que, posiblemente pueda informarles del dolor y les haga alejarse de él. Quizá así comenzó, se heredó y se incrementó ese instinto de huir del dolor, hasta llegar a la prudencia del ciervo, por ejemplo.
    También sacas a colación la «entropía» y diría que tienes razón, que la diversificación de los seres vivos ha empleado una parte de la energía que recibimos del Sol en disminuirla. Así que ya estamos de acuerdo en algunas cosas.
    Un cordial saludo.

  29. Tomás:

    Querido JavierL: Creo que puedo estar de acuerdo en todo o, al menos, en casi todo de cuanto dices. Para el casi, habría que matizar.
    Un cordial saludo.

  30. Eduardo Rincón López:

    Amigo Javier L.
    A ver si te he entendido, si no me corriges.
    Dices que, si no existiera el instinto de supervivencia en una especie, su nicho seria enseguida ocupado por otras y se extinguiría. De acuerdo. Aunque esto implica, que todo el ambiente esté ocupado, y haya interés en las otras especies de expandir.
    Enseguida dices “no creo que alguna especie tenga el deseo de evolucionar.”
    Entiendo que no sea necesario el deseo de evolucionar, pues la mudanza del cambio del ambiente, al final la empuja, por selección, para que lo acompañe. Pero creo que debe existir el instinto digamos de expansión, (crecimiento como especie). Pues no veo el mecanismo por el que, la mudanza del ambiente pueda forzar a las especies, a que todo su espacio se ocupe. A no ser que la mudanza entendida como algún ENTE tenga voluntad propia y este sea su interés.
    Después dices “Y es que el individuo no evoluciona……..
    Con eso no estoy de acuerdo. Constantemente estamos expuestos a mutaciones genéticas que nos modifican durante el periodo de nuestras vida. Creo que desde el momento que ocurren, ya influyen en la (Evoluciona el individuo)
    Entones en el acto de reproducción no solamente se transmiten los genes modificados, sino también las influencias que estos pueden haber provocado en otros, además de los no modificados, claro que todos mezclados con los de la pareja.
    En lo de la importancia del instinto de reproducción te doy la razón. Lo que no entiendo es porque, en la práctica de este, aparezca un fuerte placer como recompensa.
    Para justificar la opinión de que existe evolución individual por mutación genética, basta con observar las consecuencias (avances actuales en terapias y otros), con técnicas de reprogramación genética tipo CRISPR y otras, Que en mi opinión hacen de forma casi instantánea, selectiva, controlada, lo que el ambiente hace de forma lenta y aleatoria.
    Un cordial saludo

  31. Eduardo Rincón López:

    A propósito de lo que comentamos te mando link que justamente acabo de ver en este momento

    https://elpais.com/elpais/2017/07/27/ciencia/1501150753_958985.html

  32. JavierL:

    Bueno amigo, el deseo de expansión que mencionas yo lo llamaría de reproducción.

    Esa tecnica CRISPR puede funcionar en embriones. Pues se está desarrollando.

    En adultos no entiendo como una mutación en una sola célula de por ejemplo un riñón pueda producir un cambio en la función del riñón (evolución). O como ese cambio se tramite a una célula reproductora para que pase a la nueva generación..

    Y viceversa. Si bien una mutación en una célula reproductora se trasmitiria a la próxima generación, ¿como trasmite es mutación a la región del individuo correspondiente?

    Sumemos que la gran mayoría de las mutaciones no son necesariamente beneficiosas. Salvo unas excepciones.

    No veo como puede un individuo evolucionar.

    Ahora. En otro orden de ideas, el individuo tiene una capa de epigenetica que permite una adaptación al medio. A través de regular la expresión del adn. Pero no implica una mutación, sino otros mecanismos

RSS feed for comments on this post.

Lo sentimos, esta noticia está ya cerrada a comentarios.