CÓD.N03-S05-01 ONLINE

El despertar de los robots (sociales)

El avance y desarrollo en la Inteligencia Artificial transformará nuestra vida de manera incuestionable. Desde los cambios en la salud y sanidad, la ciencia, el manejo de datos, la privacidad , pasando por la utilización de robots laborales o sociales, la Al ha generado una serie de desafíos para nuestras sociedades. Lo cierto es que mientras los especialistas americanos debaten como gobiernos deberían cómo regular este campo emergente, algunas entidades geopoliticas y comunidades políticas fuera de América están enfrentado problemas éticos y políticos relacionados con la responsabilidad imputable a los sistemas autónomos y semi-autónomos, así como su inclusión en ámbitos médico-asistenciales o su interacción con los seres humanos (robots sociales). Datos sobre Europa muestran que “Del 2010 al 2014 las ventas de robots aumentaron una media del 17 % por año y es la industria electrónica la que está generando el mayor número de ofertas de empleo”. Situaciones como estas, entre otras ha provocado que la UE genere informes y documentos para su futura regulación. Textos que resultan ser confusos, ambiguos o carentes de la precisión conceptual necesaria. Esta situación genera un interesante antecedente que sirve de base para algunos argumentos que presentaremos en la ponencia.  Por ejemplo, el Parlamento Europeo (sobre normas de robótica) considera que un robot inteligente tiene la capacidad de adquirir autonomía, autoaprendizaje (a partir de la experiencia y la interacción), la capacidad de adaptar su comportamiento y acciones al entorno, así como un soporte físico y la ausencia de vida en sentido biológico.  El tema de la autonomía es posiblemente uno de los focos de los documentos que buscan su regulación o brindar una guía ética. Navarro & Kovacic (en un texto todavía no publicado) indican que, la pregunta por la agencia moral (si bien no es lo mismo que autonomía) de los robots es uno de los grandes debates de la Filosofía Política. En los en los debates filosóficos sobre el tema, los criterios de autonomía pueden ser muy exigentes, mientras que, en otras áreas, como la de los robots, la exigencia disminuye. De nuevo, este es un tema que plateó de manera interesante el Parlamento Europeo en una Resolución del 2017 aunque de una forma confusa. Esto nos hacer creer que la relevancia de la autonomía de los robots es un tema central que va más alla lo que estos documentos muestran, ya que implica en un primer acercamiento, dejar de considerarlos como simples cosas o herramientas, lo que hace necesario revisar su estatus desde un punto de vista moral y legal, para pasar a pensar seriamente si las categorías filosóficas y jurídicas existentes son suficientes o es necesario crear otras, con tal de abarcar las implicaciones sociales y éticas de este tipo de robots.

Palabras clave

humanidades digitales inteligencia artificial tecnología

Ponencia Online

Documentación de apoyo a la presentación ONLINE de la ponencia

Ver el video en youtube


Firmantes

Los autores de la ponencia

profile avatar

Jonathan Piedra Alegría

Ver Perfil


Preguntas y comentarios al autor/es

Hay 7 comentarios en esta ponencia

    • profile avatar

      Ramon Blanco-Barrera

      Comentó el 12/12/2020 a las 00:26:13

      Querido Jonathan:

      Felicitarle en primer lugar por su esclarecedora ponencia. Mi pregunta es directa, ¿cree usted que llegará un día en que debamos hablar de Derechos Robóticos? O sea, al igual que los Derechos Humanos, se entendería que un robot social puede ser considerado un ciudadano, por lo que cabría también la posibilidad de que ostenten derechos. ¿Qué piensa usted al respecto?

      Muchas gracias y un cordial saludo,
      Ramón

      Responder

      • profile avatar

        Jonathan Piedra Alegría

        Comentó el 13/12/2020 a las 16:51:39

        Gracias por su comentario. En realidad, ya se está hablando de este tipo de Derechos Robóticos. En el mundo anglosajón es un debate que tiene cierto tiempo. En algunos casos desde una forma "dura" (verdaderos derechos civiles) y en otras casos desde una perspectiva que va más bien contra el antropocentrismo. En español existe el texto "Derechos de los Robots" (cuyo director es Moisés Barrio Andrés), pero en general es un tema bastante incipiente. (Exceptuando la propuesta de la UE "Sobre Normas de Derecho Civil y Robótica" en que se les brinda una especie de "personalidad electrónica"). Desde mi punto de vista, se debería trabajar más en el respeto, cumplimiento y efectiva protección de los derechos (de los) humanos. No obstante, lo que si es claro es que según el avance e inclusión social de este tipo de robots, habría que empezar a valorar ciertos fundamentos de los DDHH, pero no para relativizarlos, como parecen ciertas propuestas de este tipo, sino para fortalecerlos.

        Responder

    • profile avatar

      Nicolas Petel-Rochette

      Comentó el 11/12/2020 a las 14:17:34

      Buenos días,

      Me gustaría compartir con usted dos dudas: una (punto 1) acerca del concepto de “robot social” y otra (punto 2) acerca del incipiente progresismo que traen consideraciones que asocio al transhumanismo.
      Los dos puntos me llevan a dos preguntas concretas.

      Punto 1. Concepto de “robot social”.
      ¿A qué se refiere con interacción social? Si partimos de que la tecnología es cultural y socialmente producida, es decir, del hecho de que es un elemento que forma parte de nuestra vida cotidiana, con las consecuencias que esto pueda tener en el plano político (gestión de su papel en distintos ámbitos de la vida cotidiana; accesibilidad a las tecnologías; uso de las tecnologías; legislación sobre su programación y sobre sus límites; etc.), entiendo que cualquier tecnología es social; entre otras, los robots. En este sentido, un tenedor, un móvil, un robot, un ascensor, una bicicleta, una red de carreteras, serían igualmente “sociales”: elementos o dispositivos tecnológicos más o menos complejos, con más o menos capacidad interactiva, y más o menos recorrido histórico, difusión, complejidad o alcance como medios.
      Si, al contrario, usted afirma que los robots son sociales por sus características propias, o sea, que son “más” sociales que otras tecnologías, creo que: por un lado 1) podríamos caer aquí en la reificación de un concepto instrumental de “lo social” que sirve de base para demostrar la “inevitabilidad” de un cambio “disruptivo” que poco, o nada, tiene que ver con lo que está pasando en efecto con el uso masivo de bots y robots; por el otro lado 2) nos veríamos ante un debate que se debe a un desplazamiento semántico de términos que sirven en distintos ámbitos; que la ley europea se refiera a la “autonomía” de los robots no significa que debamos asumir que son seres autónomos en sentido ético. De hecho, veo un peligro en que las ciencias algorítmicas dinámicas - que promueven aprendizaje en sistemas, y que permitan resolución de dilemas y adaptación a situaciones comportamentales complejas – vean sus componentes humano, tecnoindustrial, sistémico y político invisibilizados por este tipo de consideraciones acerca de una supuesta naturaleza social de los robots. Ni son libres en sentido ético, ni son sujetos de derecho (aunque sí, sin duda, sean actores jurídicos, como usted lo subraya).
      Repito mi primera pregunta: me gustaría que me explicara, si lo ve conveniente, a qué se refiere con “interacción social”. Incluso si se cumplieran en 2050 todos rasgos que menciona Breazeal acerca de los “sociable robots”, sigo sin entender de dónde emana el dilema que usted menciona en el minuto 12:40.

      Punto 2. Bases de un incipiente progresismo inherente, pero no explícito, en el pensamiento transhumanista
      Veo un problema fundamental en los análisis que provienen del transhumanismo: su retórica positivista. Siempre se parte de una supuesta ruptura, como si hubiese habido recientemente un salto cualitativo en el uso de la tecnología que nos lleve a un inevitable giro teórico acerca del lugar de los asuntos humanos en el pensamiento. Creo que tiene usted razón en el diagnóstico de partida: el encaje de la tecnología en la vida cotidiana y en las instituciones políticas nos obliga a pensar en posibles consecuencias éticas, o maneras de legislar más acertadamente acerca del lugar y de la acción de la tecnología. Puede incluso que esto tenga implicaciones antropológicas. Pero, como en el primer punto, sigo sin ver por qué los robots plantearían inevitablemente cambios antropológicos o antropogénicos. Digo que percibo en el transhumanismo una “retórica” progresista porque, realmente, no percibo en su ponencia ninguna distancia con lo que parece plantearse como una correspondencia entre el marco de análisis planteado y lo que se asume como la “realidad”.
      Parece que debemos asumir que esos cambios vayan a suceder incorporando un cuadro progresista que no explicita sus orígenes o sus bases teleológicas; que la UE esté legislando “mal” sobre el tema de los robots no debería implicar que “debamos” asumir la inevitabilidad de estos cambios. Es sintomático en este sentido el uso de un esquema de KPMG, minuto 4:47, como soporte visual de lo que se asume será la tendencia de las próximas décadas.
      Me gustaría, si puede ser, que me explique qué quiere decir cuando afirma que los “robots sociales” son una tecnología “disruptiva”. ¿”Disruptiva” en qué sentido? Usted detalla muy bien los pasos de “sofisticación de la máquina”, y nuestras faltas de conceptos para reflexionar sobre su papel y sobre la cualidad de sus actos “autónomos”. Pero, sigo sin entender por qué esto tendría que implicar una posible tendencia a ver un vínculo privilegiado entre humanidad y “roboticidad”. Cualquier tecnología es, en cierto modo, antropomórfica o antropocentrista, ¿no? A mi parecer, el problema está en qué grado lo es, y siguiendo qué criterios; qué definición de lo antropológico es retomada por los complejos tecnopolíticos para producir y diseñar tecnología, y cuáles son sus fines. La apuesta de la Comisión Europea para el 5G y el 6G ejemplifica para mí este tipo de definición. Para mí, toda tecnología es política; ninguna tecnología comporta elementos autónomos de lo humano. Si se afirma eso, al menos me gustaría entender en base a qué criterios.
      Ya en los años 1950, Günther Anders habló de la ruptura antropológica que traía la era atómica, y de los posibles cambios en la gestión y representación del tiempo y del espacio que esto traía. Pues bien, para él, estos cambios venían ya no de la cercanía entre humano y máquina, sino, al contrario, de la enorme distancia entre esa nueva tecnología y la posibilidad misma de la existencia humana. Para él, la tecnología militar atómica era disruptiva porque introducía un medio militar global esencialmente no democrático, o, incluso, antidemocrático, en tanto que su gestión no puede sino ser jerárquica, centralizada, más que nada por su enorme potencial destructor. Esos era sus criterios para hablar de una ruptura, o un giro con consecuencias posiblemente “antropológicas”.
      ¿Por qué deberíamos considerar la robótica como más cercana a una condición humana, mientras que otras tecnologías, desde la última punta del espectro tecnopolítico, como sería lo nuclear, tienen potencialmente más efectos superestructurales sobre las sociedades humanas y sobre la vida como posibilidad a largo plazo?
      Es un debate enorme, y le agradezco de haber abierto la cuestión. Le agradezco mucho los ejemplos del final que, en margen de las dudas que le planteo, me han ayudado a entender hacia qué ámbito está dirigiendo sus interesantes trabajos.
      Atentamente,

      Responder

      • profile avatar

        Jonathan Piedra Alegría

        Comentó el 12/12/2020 a las 20:06:26

        Gracias por el comentario. Sin duda la idea de "interacción social", se encuentra implícita en el origen mismo de robot. Incluso desde la famosa obra de Karel Čapek, la interacción social es un tema de fondo. Usualmente se utiliza la referencia a la "interacción social" para indicar como los robot pueden tener (o tienen) habilidades complejas de aprendizaje, toma de decisiones, reconocimiento de lenguaje natural y capacidad de empatía o inserción en un nivel social-relacional (entre otras). Estas características no las tienen la mayoría de los robots. Precisamente por esto, son una tecnología disruptiva, porque implican un replanteamiento de los espacios de trabajo, de interacción ser humano-máquina e incluso de las relaciones morales entre nuestros semejantes y entorno (i.e agentes morales o pacientes morales). Muchos de los temas que ahora se debaten sobre estos robots en el pasado fueron discutidos sobre los animales no-humanos (con sus diferencias, obviamente). Sin duda en el caso de los RS hay un asunto de antropomorfizarlos que no tiene que ver nada con la tecnología misma, sino con un asunto de aceptación (de mercado y social). Siendo así, esta tecnología como cualquier otra tiene un fuerte componente político y no tiene por qué ser más cercana que cualquier otra (mucho menos que la tecnología nuclear). Sin embargo este fuerte elemento "antropomorfizador", así como los espacios en los que se "vende" (cuidado, salud, acompañamiento etc) dan esa impresión y en este sentido su impacto mediático puede ser mayor, pero aún así esto no implica que sus potenciales no sean enormes. De hecho, lo son. Por ejemplo, esta situación ha tomado importancia en España y de hecho fue mencionado como un desafío para Europa en el Sexto Congreso CENAT de Tecnologías de la Accesibilidad que se celebró el Bilbao en el año 2015. Específicamente en el caso de los RS para pacientes con Alzheimer. El tema quizá va en el punto de que la IA se presenta como la solución a todos los problemas. Todos los países (incluido España) quieren ser lideres en la IA. Parece que la IA es una especie de ideología que subyace muchos problemas. En este sentido es profundamente disruptiva, ya que es aceptada y promovida en casi todos los espacios de la vida humana.

        Responder

    • profile avatar

      Adrián Almazán Gómez

      Comentó el 10/12/2020 a las 09:59:43

      Estimado Jonathan.

      Te hago llegar una serie de consideraciones. Me ha resultado sorprendente el uso de la noción de autonomía que has desarrollado, ya que como imagino que sabrás ésta tiene una fuerte carga histórica y filosófica que, a mi entender, la hace poco compatible con el tipo de comportamiento asociado a un robot. En tu presentación definías esta autonomía robótica como "una habilidad para realizar una tarea por sí misma", llegando incluso al punto de hablar de inteligencia. Pero, ¿puede existir autonomía en un robot? ¿no sería más adecuado hablar de automatismo? La intervención humana nunca puede estar ausente, ya que como poco se encuentra en la fase de diseño. Lo que puede haber es más o menos automatismo en el uso. De igual modo, ¿no es excesivo el hablar de inteligencia para simples reproducciones de lógicas algorítmicas?

      Por otro lado, ahondando más en las dimensiones poliéticas de esta cuestión, ¿no crees que supone a todas luces una mala idea optar por instancias automatizadas de toma de decisiones que después van a tener dificultades en procesos de rendición de cuentas? Además, ¿no es esta idea de robot, y en particular de robot social, nada más que una propaganda sofisticada para eliminar la presencia de seres humanos en espacios de la vida especialmente delicados como es el de los cuidados?

      Responder

      • profile avatar

        Jonathan Piedra Alegría

        Comentó el 12/12/2020 a las 19:45:01

        Gracias por la consulta. Efectivamente, en este tema se usa una noción muy poco técnica (alejada de todo el contexto de la Filosofía Moral y política)del concepto de autonomía. En realidad, no hay una única noción, sino que hay al menos 3 grandes narrativas distintas sobre este tema. Casi siempre se entiende desde el punto de vista de un agente (no agente moral. Este sería otro tema) con capacidad para realizar cierta acción. Desde esta definición, si puede existir autonomía (respecto a una tarea en concreto, no total), incluso algunos consideran que se podría llegar la nivel humano, incluso. El problema de Inteligencia (Humana) es que los conceptos y definiciones no son homogéneas. No hay una definición operativa con la que se esté totalmente de acuerdo. Lo mismo en el caso de la IA (hay muchas definiciones). Una definición muy aceptada es el concepto funcionalista (computacional). En este caso no se necesita un sustrato biológico para ser un agente inteligente. Ciertamente es una posición reduccionista, pero es un posición muy trabajada en este ámbito.
        Por otro lado, en el nivel actual del desarrollo de la IA, la responsabilidad siempre se podrá rastrear a algún ser humano(operador, empresa, etc). Lo cual parece lo más sensato. La propuesta de la UE de dotar de personalidad jurídica a los robots me parece un asunto más de lobby empresarial, que una forma de resolver los problemas de la liability. El tema de los robots sociales sin duda tiene un fuerte componente económico, aunque eso no obsta para en realidad puedan generar un gran aporte social y ayuda en ámbitos difíciles y de gran precisión.

        Responder


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.