Colecciones

Actitudes de la IA: lo que los expertos consideran de interés

Actitudes de la IA: lo que los expertos consideran de interés


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Como vimos en Our Brave New World: Por qué el avance de la IA plantea preocupaciones éticas, hay algunas áreas en las que el uso de la IA parece menos que ventajoso para la sociedad. Incluyen la promulgación de prejuicios raciales en el reconocimiento facial y otras fórmulas secretas algorítmicas, así como una amenaza para los trabajos y posiblemente incluso la seguridad en general, según el escenario de pesadilla sugerido por Elon Musk.

Puede escuchar a Musk describir sus preocupaciones sobre la IA en el video a continuación.

El choque de opiniones entre Elon Musk y Mark Zuckerberg

En 2017, cuando Musk dio a conocer sus puntos de vista, incitó a Zuckerberg a expresar una opinión mucho más "optimista" durante una transmisión de Facebook Live. De hecho, Zuckerberg denunció que los que son irreponibles no son los que persiguen la IA, sino los que enfatizan los peligros. Él dijo:

"Y creo que las personas que son detractores y tratan de inventar estos escenarios apocalípticos ... simplemente no lo entiendo. Es realmente negativo y, de alguna manera, creo que es bastante irresponsable".

"De vuelta a ti" podría resumir la respuesta de Musk a la opinión de Zuckerberg, que expresó en Twitter: "He hablado con Mark sobre esto. Su comprensión del tema es limitada".

Entonces Musk recurre a una afirmación de mayor experiencia para reforzar su punto de vista. De hecho, sin embargo, la visión optimista versus pesimista de la IA no está dividida por el nivel de experiencia en el tema.

Los optimistas de la IA

Varios expertos en inteligencia artificial comparten la visión optimista de Zuckerberg. Por ejemplo, Kevin Kelly, cofundador de Cableado y autor de Lo inevitable: comprensión de las 12 fuerzas tecnológicas que darán forma a nuestro futuro. hizo esta amplia declaración: “El mayor beneficio de la llegada de la inteligencia artificial es que las IA ayudarán a definir a la humanidad. Necesitamos IA para que nos digan quiénes somos ".

Kelly amplió su opinión en una entrevista con IBM: "A través de la inteligencia artificial, vamos a inventar muchos tipos nuevos de pensamiento que no existen biológicamente y que no son como el pensamiento humano".

En opinión de Kelly, eso es totalmente positivo: "Por lo tanto, esta inteligencia no reemplaza el pensamiento humano, sino que lo aumenta".

Otro optimista de la IA es el futurista e inventor, Ray Kurzweil, quien hizo la siguiente declaración en una entrevista de 2012:

"La inteligencia artificial alcanzará los niveles humanos alrededor de 2029. Siga eso más allá de, digamos, 2045, habremos multiplicado la inteligencia, la inteligencia de la máquina biológica humana de nuestra civilización mil millones de veces".

Kurzweil lo explicó como el equivalente de "singularidad" en la ciencia de la física, porque sería "un profundo cambio disruptivo en la historia de la humanidad". En última instancia, prevé que el pensamiento humano "se convertirá en un híbrido de pensamiento biológico y no biológico".

Los pesimistas de la IA

También hay expertos que no sueñan con una utopía en la que la IA se haga cargo de los trabajos y gran parte del pensamiento de la humanidad. Consideran que la posibilidad de poner a la IA a cargo de los procesos está llena de peligros.

Entre ellos se encuentra Yuval Noah Harari, quien escribió Homo Deus: Una breve historia del mañana. Dentro del libro, el profesor Harari hizo el siguiente pronunciamiento:

¿Quieres saber cómo los cyborgs superinteligentes podrían tratar a los humanos ordinarios de carne y hueso? Es mejor empezar investigando cómo los humanos tratan a sus primos animales menos inteligentes. No es una analogía perfecta, por supuesto, pero es el mejor arquetipo que realmente podemos observar en lugar de simplemente imaginar ". 

La opinión de Harari es el polo opuesto de los futuristas positivos al imaginar el surgimiento de lo que él llama "dataismo". en el que los humanos ceden el terreno superior a la inteligencia artificial avanzada. Este es un futuro que está dominado por un "sistema de procesamiento de datos cósmico" que es omnipresente y omnisciente y, como dirían los Borg, la resistencia es inútil.

El fallecido físico teórico inglés, cosmólogo y autor que fue director de investigación en el Centro de Cosmología Teórica de la Universidad de Cambridge, Stephen Hawking, también cae en el campo pesimista. Al igual que Harar, consideró la experiencia humana en la búsqueda de objetivos al proyectar las posibilidades de la IA siguiendo sus propios dictados sin tener en cuenta la humanidad.

En el siguiente video, Stephen Hawking ofrece una visión muy pesimista de la IA.

A principios de 2015, durante una sesión de preguntas y respuestas de Reddit AMA (Ask Me Anything), un maestro que quería saber cómo abordar ciertas preocupaciones de IA que surgen en sus clases, le hizo a Hawking la siguiente pregunta:

¿Cómo representaría sus propias creencias ante mi clase? ¿Son nuestros puntos de vista reconciliables? ¿Crees que mi hábito de descartar a la "IA malvada" al estilo de Terminator es ingenuo? Y finalmente, ¿qué moral crees que debería reforzar a mis alumnos interesados ​​en la IA?

La respuesta de Hawking fue la siguiente:

El riesgo real de la IA no es la malicia, sino la competencia. Una IA superinteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estaremos en problemas. Probablemente no seas un malvado odiador de hormigas que pisa hormigas por malicia, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se inundará, lástima para las hormigas. No coloquemos a la humanidad en la posición de esas hormigas.

¿Es real la amenaza del dominio de la IA?

Anthony Zador, profesor de neurociencia en Cold Spring Harbor Laboratory, y Yann LeCun, profesor de informática en la Universidad de Nueva York y científico jefe de inteligencia artificial en Facebook, argumentan que obsesionarse con el dominio de la inteligencia artificial es un error. Explicaron su punto de vista en un Científico americano blog titulado Don’t Fear the Terminator publicado el 26 de septiembre de 2019.

Puedes escuchar a Zador en IA en este video:

LeCunn habla sobre otros aspectos de la IA en este video:

En respuesta a la pregunta, "¿Por qué una IA inteligente querría apoderarse del mundo?" ofrecen la respuesta simple de dos palabras: "No lo haría".

Quizás tenían en mente el libro de Harari cuando abordaron el papel de la inteligencia en el "dominio social" a lo largo de la "historia evolutiva". Continuaron explicándolo en términos de una herramienta en lugar de un controlador:

“Y de hecho, la inteligencia es una adaptación poderosa, como los cuernos, las garras afiladas o la capacidad de volar, que puede facilitar la supervivencia de muchas maneras. Pero la inteligencia per se no genera el impulso de dominación, como tampoco lo hacen los cuernos ".

Entonces, los humanos usan su inteligencia para ayudarlos a sobrevivir. Pero cuando se trata de las formas artificiales de inteligencia, no existe tal "instinto de supervivencia", y es por eso que la IA no tendría ninguna razón para hacerse cargo de los humanos que la programan.

"En la IA, la inteligencia y la supervivencia están desacopladas, por lo que la inteligencia puede servir para cualquier objetivo que nos propongamos".

La preocupación infundada por tramas de tipo ciencia ficción como la deVengadores: La era de Ultron, o lo que Zador y LeCun (posiblemente haciendo referencia a la pregunta que hizo Hawking) llaman "el escenario de Terminator" es en realidad contraproducente porque "simplemente nos distrae de los riesgos muy reales de la IA".

Los riesgos de la IA por los que deberíamos estar preocupados

Zador y LeCun continúan distinguiendo su posición de la de los optimistas de IA. Musk lo hizo bien en su libro acerca de que la IA se convierte en un “arma”, así como sobre las otras amenazas que representa para la humanidad, incluida la pérdida de puestos de trabajo.

“Si bien la inteligencia artificial mejorará la productividad, creará nuevos puestos de trabajo y hará crecer la economía, los trabajadores deberán volver a capacitarse para los nuevos puestos de trabajo y, inevitablemente, algunos se quedarán atrás. Como ocurre con muchas revoluciones tecnológicas, la inteligencia artificial puede conducir a mayores aumentos en la riqueza y las desigualdades de ingresos a menos que se implementen nuevas políticas fiscales ".

Además de los riesgos que ya se pueden anticipar, existen aquellos que son "riesgos imprevistos asociados con cualquier tecnología nueva: las 'incógnitas desconocidas'".

El hecho de que no se hayan imaginado en una trama de ciencia ficción no significa que no sean motivo de preocupación, argumentan. Enfatizan que los humanos son los responsables de los resultados de la IA ampliada, que no puede desarrollar ninguna agencia o ambición independiente.

Sin embargo, aunque enfatizan la responsabilidad humana, Zador y LeCun no describen ningún plan en particular para evitar los riesgos, tanto conocidos como desconocidos, de la nueva tecnología.

Planificación proactiva para la IA

Ya sea que la solución sea una regulación gubernamental, como sugirió Musk, o algún tipo de estándar de la industria, parece que se necesita algún tipo de planificación con conciencia de los peligros potenciales. Varios expertos han sugerido precisamente eso.

El profesor Klaus Schwab, fundador del Foro Económico Mundial que acuñó el término "Cuarta Revolución Industrial", publicó sus pensamientos sobre su dirección actual en 2016.

Al igual que los futuristas positivos, imaginó que el futuro fusionará "los mundos físico, digital y biológico de formas que transformarán fundamentalmente a la humanidad". Pero no dio por sentado que todo saldría bien ”, instando a las personas a planificar el futuro con conciencia de“ los riesgos y las oportunidades que surgen en el camino ”.

Incluso con los autos sin conductor en el horizonte, la gente sigue en el asiento del conductor cuando se trata de planificar lo que debe hacer la IA. "La IA no tiene nada de artificial", declaró Fei-Fei Li, un experto en la materia. "Está inspirado por personas, es creado por personas y, lo que es más importante, impacta a las personas".


Ver el vídeo: V. Completa. Las claves educativas en la era de la inteligencia artificial. Kai-Fu Lee, experto IA (Julio 2022).


Comentarios:

  1. Tomkin

    te has retirado de la conversación

  2. Vozuru

    Agree, that's the funny phrase

  3. Mikagor

    Está usted equivocado. Ofrezco discutirlo. Escríbeme en PM.

  4. Andraemon

    Esta información no es correcta



Escribe un mensaje