Skip to content

Móvil Experto

Servicio Técnico Móvil

Menú
  • App
  • Móviles
  • Noticias
  • Tecnología
  • Telefonía
  • Web
Home » Noticias » Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirlo

Los algoritmos también discriminan a los seres humanos: nosotros podemos impedirlo

By   On 8 octubre, 2019 In Noticias Tagged algoritmos, discriminan, humanos, impedirlo, Nosotros, podemos, seres, también Leave a comment 

Como seres humanos, deberíamos ser conscientes de que tenemos muchos sesgos que se ven reflejados en las decisiones que tomamos cada día. Este incoveniente se extiende a nuestras creaciones, según sucede con la Inteligencia Artificial (IA).

Los algoritmos son fórmulas matemáticas aparentemente neutras y objetivas. Entonces, ¿cómo puede suceder esto?

El próximo es solamente un ejemplo. En 2018, una investigación demostró cómo los algoritmos también pueden ser racistas. Según el estudio, aquellas bases de datos compuestas por una mayoria de caras blancas (entre un 80 % y un 85 %) poseen un 34 % de peligro de clasificar de manera incorrecta a las individuos de color.

Este incoveniente se llega dramático cuando daña a la vida de las personas. Famoso es el caso del sistema COMPAS que determina si hay que conceder la libertad condicional a los detenidos en Estados Unidos. Aunque el algoritmo no use la raza según argumento de entrada, la precisión del sistema se ve afectada por las diferencias históricas entre blancos y negros y su relación con el crimen. Esto supone, al final, una injusticia para estos últimos por parte de un sistema que debería ser imparcial.

Los nueve cambios más notables en el algoritmo de Google

Estas consideraciones han abierto un debate sobre cómo programar algoritmos que respeten los criterios de equidad sin ser discriminatorios. El incoveniente no es de sencillo solución. Los programadores poseen que enfrentarse a cuestiones no solamente técnicas, sino más bien legales. Durante su labor deben tener en suma las definiciones jurídicas y las leyes en vigor.

En Europa existe una preocupación por el tratamiento debido de los datos sensibles. El artículo nueve de Reglamento General de Protección de Datos (RGPD) establece que varias categorías de datos individuales merecen exclusivo cuidado porque su tratamiento podría entrañar notables riesgos para los derechos y las libertades fundamentales. Se consideran sensibles las opiniones políticas, las convicciones religiosas, la afiliación sindical y el tratamiento de datos genéticos, biométricos liderados a identificar de manera unívoca a una individuo física, relativos a la energía y la orientación sexual de una persona.

¿Cómo deberíamos proceder a la hora de desarrollarlo sistemas de diagnóstico de enfermedades que usen de manera masiva datos sensibles?

Sin duda, habrá que contemplar la seguridad y privacidad de la información en la fáse de boceto del sistema . Como demuestran los ejemplar anteriores, el tratamiento y el ciclo de vida del dato poseen un golpe directo sobre la precisión de cualquier algoritmo que se base en aprendizaje automatico o en redes neuronales profundas. Por eso, muchos de los códigos éticos que se han desarrollado inclusive actualmente incluyen casos muy variados entre los aspectos a tomar en cuenta.

La Alianza sobre Inteligencia Artificial para el Bienestar de la Sociedad y de las Personas identifica 6 áreas de acción: la seguridad, la transparencia, el trabajo, la cooperación entre humanos y máquinas, la manipulación general y el bien común.

Receta para una IA responsable

El 22 de mayo de 2019 la OECD adoptó sus Principios sobre la IA en los que se destacan los siguientes puntos:

  • La IA debe favorecer a las individuos y al mundo al impulsar el incremento inclusivo, el progreso sostenible y el bienestar.
  • Los sistemas de IA deben diseñarse de manera que respeten el Estado de derecho, los derechos humanos, los valores democráticos y la diversidad. También deben introducir las salvaguardias adecuadas –por ejemplo, aceptar la participación humana cuando sea necesario– para asegura una asociación buena y equitativa.
  • Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para asegurar que las individuos entiendan los efectos y puedan cuestionarlos.
  • Los sistemas de IA deben funcionar de manera robusta, segura y protegida a lo largo de su ciclo de vida y los riesgos potenciales deben ser diagnosticados y gestionados continuamente.
  • Las organizaciones y las individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de convenio con los principios anteriormente mencionados.

Cuestión de ética

Como pudimos constatar leyendo estos principios, conversar de ética de la IA va más allá de la filosofía moral. El debate abarca todas las áreas de ciencias sociales, desde las políticas públicas y la economía, pasando por los mecanismos de gobernanza y las fundaciones que velen por el respeto de los derechos humanos.

Aquí cabe destacar el sondeo de opinión que la iniciativa Moral Machine ha realizado para pulsar la aprobación general de los niveles de toma de decisión en vehículos autónomos.

El estudio aconseja evitar la tentación de darnos una superioridad moral que nos lleve a definir de modo unilateral los cimientos de una IA ética. Hará falta el duelo de demasiadas áreas de conciencia experto, debate y cruzar los confines de las disciplinas en pos de marcos estables de reflexión que ayuden a despejar las dudas sobre nuestra aptitud de desarrollarlo IA para el bienestar de la humanidad.The Conversation

Sara Degli-Esposti, Research fellow, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)

Este artículo fue notificado originalmente en The Conversation. Lea el original.

TICbeat



lo que estas leyendo fue creado por el AUTOR ORIGINAL del link de arriba, nosotros anunciamos al desarrollador original de la noticia sin perjudicar su reputación ni posicionamiento web.

Compártelo:

  • Haz clic para compartir en Twitter (Se abre en una ventana nueva)
  • Haz clic para compartir en Facebook (Se abre en una ventana nueva)

Post navigation

VeraCrypt 1.24: novedades de este programa de cifrado
Estas 9 cosas te hacen menos atractivo, según la ciencia

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *




Temas

  • App (11.943)
  • Móviles (1.053)
  • Noticias (13.724)
  • Tecnología (15.467)
  • Telefonía (1.376)
  • Web (3.894)

Entradas recientes

  • Voxel School y el Máster Propio UCM en Dirección de Arte
  • Material de emergencia para medicina de urgencias
  • El regreso del resfriado común, ¿cómo hacerle frente?
  • Análisis y pronósticos F1 GP del Circuito de Estambul – 10 octubre
  • Pokémon UNITE ya está disponible en la App Store

Términos recientes

  • router wan
  • Navegador de hacker
  • como exportar los contactos de un canal de telegram
  • navegadores de hacker
  • chrome sin imagen ahorro datos
  • que son los shch en iphine
  • bubbleupnp iphone
  • Asi 2000
  • Pasos para instalar una roseta de pared RJ45
  • cablear red casa roseta cat7

Términos populares

  • mc bionica
  • bionica mc pack gratis
  • recordar contraseñas en microsoft edge
  • xdede
  • mc bionica tirando a roupa
  • mc bionica tirando su ropa
  • mc bionica videos
  • memes graciosos
  • mc bionica tirando
  • pixeldrain videos

Etiquetas

2018 actualiza actualización Android aplicaciones Apple Así Build como Conoce datos desde disponible España esta este Estos estás Facebook Galaxy Google gratis iPhone juegos lanza llega mejores Microsoft más móvil novedades nueva nuevo nuevos para podría puedes Samsung seguridad todo vídeo whatsapp Windows Xbox “Que
Experto Móvil - Toda la información para reparar tu Móvil