Sesión 6 ¿Cuánto debería preocuparnos la "estupidez artificial"?
Los "optimistas" y los "pesimistas" de la inteligencia artificial están enfrentados en un intenso debate.
BBC Mundo
03. Noviembre.2017 Link: http://bbc.in/2A7Jt3A
Fecha de publicación: 06. Noviembre.2017
Stephen Hawkingy otros reconocidos científicos y tecnólogos en todo el mundo llevan tiempo advirtiendo de una posible catástrofe: que la inteligencia artificial se vuelva demasiado inteligente e incluso llegue a convertirse en "una amenaza para la raza humana".
"Los humanos, que somos seres limitados por su lenta evolución biológica, no podremos competir con las máquinas, y seremos superados", dijo el físico teórico.
Según Hawking, "el desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana".
Pero quienes niegan esta idea aseguran que es exagerada y que lo que realmente debería preocuparnos, más que la inteligencia artificial, es la "estupidez artificial".
Una de las voces en contra más prominentes es la del ingeniero y especialista en ética robótica Alan Winfield, quien trabaja en el Laboratorio de Robótica de Bristol, en Reino Unido.
"Encuentro las afirmaciones de Hawking profundamente inútiles", explicó el especialista en una entrevista con le programa Hardtalk de la BBC.
"La inteligencia artificial no es muy inteligente. Más bien deberíamos preocuparnos por la estupidez artificial", aseguró.
Pero ¿a qué se refiere con "estupidez artificial"?
"Miedo y fascinación"
Hawking se implicó por primera vez en este debate en el año 2014.
Pero desde entonces, varias compañías tecnológicas han puesto en práctica medidas de prevención.
En enero de este año, varios empresarios financiaron un Fondo para la Ética y Gobierno de la Inteligencia Artificial apoyado por prestigiosas instituciones estadounidenses, como la Fundación Knight o la Universidad de Harvard.
El creador de LinkedIn, Reid Hoffman, el fundador de eBay Pierre Omidyar, y director del Media Lab del MIT (el Instituto de Tecnología de Massachusetts), Joichi Ito, fueron algunos de los nombres destacados en ese proyecto.
También este año -el pasado septiembre- hubo una colaboración entre Facebook, Google, Microsoft, Amazon y otros gigantes tecnológicos para garantizar "mejores prácticas" de la inteligencia artificial.
Y Google incluso patentó un "botón rojo" para apagarla en caso de peligro extremo.
Sin embargo, Winfield considera que estas actitudes han ido demasiado lejos.
"Es una combinación de miedo fascinación, por eso nos encanta la ciencia ficción". Alan Winfiel, ingeniero y especialista en ética robótica.
"Es una combinación de miedo con fascinación, por eso nos encanta la ciencia ficción", aseguró.
Escenario irreal
Winfield dice que el escenario que plantea Hawking es irreal.
Y defiende que hay "muchas otras cosas" por las que deberíamos preocuparnos en estos momentos y que conciernen a las áreas en las que debe mejorar la inteligencia artificial.
"Trabajos, militarización, estándares en autos que se manejan solos, en robots, en diagnósticos médicos... ese tipo de cosas sí son problemas actuales (de la inteligencia artificial)", declaró el eticista.
"Hacer lo correcto en el momento adecuado es una definición de inteligencia", explica. "Pero eso no sirve de mucha ayuda, desde un punto de vista científico".
El experto en robótica dice que uno de los aspectos claves de la inteligencia artificial es que lo que creíamos muy difícil que ocurriera hace 60 años -como que las máquinas compitan en ajedrez contra los humanos-resultó ser relativamente fácil".
"Sin embargo, lo que pensamos que sería muy fácil ha resultado ser enormemente difícil". Y menciona aspectos como el hecho de que haya que supervisarlas para hacer ciertos trabajos, pues esas máquinas son incapaces de pensar, como sí lo es el cerebro humano.
Alan Bundy, profesor de razonamiento automatizado en la Universidad de Edimburgo en Escocia, Reino Unido, coincide con Winfield.
Bundy dijo que los grandes éxitos en el desarrollo de la inteligencia artificial en los últimos años fueron extremadamente limitados.
¿En qué tenemos que avanzar entonces?
Para Winfield, es fundamental que desarrollemos más la parte teórica -pues la que existe hoy día no está unificada- y hacer innovaciones e investigaciones éticamente responsables.
Pero, por lo pronto, el debate continúa.
Comentario: Me parece que este es un tema muy interesante, pues hasta ahora existen un par de películas en donde se muestra que la inteligencia artificial en algún punto sobrepasa los limites humanos y todo se sale de control, es por ello que esta posibilidad existe, se necesita más información por parte de los expertos para conocer si es que esto realmente podría pasar, la tecnología esta en la vida de todas las personas actualmente, pero hay que conocer los limites y hasta donde saber usarla y emplearla de manera adecuada.




Ale, tu tarea está a destiempo,
ResponderBorrarpor lo que no vale lo mismo,
Gracias por compartir!
Saludos!
Debemos de darle una buena utilidad a la tecnología, como lo mencionas saber en que momento utilizarla y sobre todo cómo la vamos a utilizar?
ResponderBorrarYo considero que son más inteligentes que nuestro cerebro.
Considero que actualmente, la tecnología se ocupa prácticamente todo el tiempo, y es por ello que debemos saber utilizarla y organizar los tiempo, para no volvernos dependientes a dichas herramientas, y siempre tener presente que la tecnología es un apoyo para poder vivir, más no es una necesidad.
ResponderBorrarAle, tu noticia es muy interesante...
ResponderBorrarHoy en día la tecnología esta presente en todo y ya es parte de nuestra vida diaria, puedo decir que es una gran herramienta para todos las que la utilizamos, ademas de que la inteligencia artificial es una las tendencias y las grandes empresas con ciencia y tecnología apuestan mucho por ella, ademas invierten grandes cantidades de dinero para desarrollarla a la perfección, me atrevería a decir que la inteligencia artificial esta por ganarle partidas a los humanos.
Este blog ha sido eliminado por un administrador de blog.
ResponderBorrarMe encanto tu noticia porque en la sociedad, dentro de las ciencias de la computación, la de la Inteligencia Artificial es una de las áreas que causa más expectación. Que un sistema pueda mejorar su comportamiento sobre la base de la experiencia y que además, tenga una noción de lo que es un error y que pueda evitarlo, resulta muy interesante.
ResponderBorrar