Blog gratis
Reportar
Editar
¡Crea tu blog!
Compartir
¡Sorpréndeme!
Taller de TIC aplicadas a la enseñanza
Blog de Profesor Mario Freschinaldi
//25 de Marzo, 2016

LOS PELIGROS EN LAS REDES...

por mariof2005 a las 18:14, en INFORMACIÓN TECNOLÓGICA

Le pasó a Microsoft.

¡Imaginen lo que nos puede pasar a nosotros!



Microsoft apagó su robot inteligente porque se volvió nazi y racista en un día

Se trata de Tay, un ambicioso experimento de inteligencia artificial. El bot estaba programado para aprender de las conversaciones en las redes sociales. Pero fue víctima de un boicot de usuarios neonazis.

Tay, un software de inteligencia artificial diseñado por Microsoft para conversar como una adolescente, fue supendido en menos de un día por hacer comentarios racistas, sexistas y ofensivos en las redes sociales.

Tay, experimento de inteligencia artificial de Microsoft. / BuzzFeed

A principios de semana, Microsoft lanzó el experimento, en el cual el software Tay -más conocida como un "botchat"- recibía la personalidad de una adolescente que estaba diseñada para aprender de los intercambios online con personas reales.

En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y “diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida”.

En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. El chatbot fue lanzado el miércoles, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

Pero el plan no salió como se esperaba y sin pretenderlo la joven aprendió cosas malas, según la empresa.

Mirá también: China desafía al programa de inteligencia artificial de Google

La particularidad de este bot es que va aprendiendo de las conversaciones que mantiene con sus interlocutores. Absorbe toda clase de información nueva y luego la utiliza en otras conversaciones. El problema está en que no había ningún filtro por parte de Microsoft y de ahí que algunos internautas aprovecharan ese vacío para boicotear a Tay en su cuenta de Twitter @TayandYou.

Tay genocidio

“¿Apoyas el genocidio?”, le preguntó un usuario en Twitter. “De hecho lo hago”, respondió Tay. “¿De qué raza?”, volvió a preguntar el usuario. “De los mexicanos”, respondió el programa.

"Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada", dijo la compañía.

Mirá también: Paliza de Google contra el campeón de Go: fue 4-1

Algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes ofensivos. Pronto, Tay estaba enviando mensajes de empatía a Hitler, Donald Trump y comentarios e insultos hacia las mujeres y los negros, creando furor en redes sociales.

Tay holocausto

“No puedo creer que no lo vieran venir”, comentó el científico computacional Kris Hammond.

Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de “llamada y respuesta”, agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.“Todo el mundo dice que Tay se convirtió en esto o que se volvió racista”, dijo Hammond. “No es verdad”.

Mirá también: Microsoft implementa inteligencia artificial en el Minecraft

Según el científico, el programa solo reflejó lo que se le decía, posiblemente en repetidas ocasiones, por personas que decidieron ver qué pasaría.

Todos los comentarios ofensivos de Tay fueron borrados, pero la red está llena de capturas de pantalla en las que todavía se pueden ver.

Tay, experimento de inteligencia artificial de Microsoft. / BuzzFeed

Microsoft anunció que “hace ajustes'' a Tay, pero no detalló una posible fecha para su regreso.

"Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy", fue el último mensaje en Twitter de Tay.

Palabras claves , , , ,
Sin comentarios  ·  Recomendar
 
Más sobre este tema ·  Participar
Comentarios (0) ·  Enviar comentario
Esta entrada no admite comentarios.
Sobre mí
FOTO

Héctor Mario Freschinaldi

Mail: enviotp@gmail.com
En AS.: JVG CA Taller TIC (su nombre y apellido)

En un mundo donde los cambios se suceden vertiginosamente, incluso los tecnológicos, es menester asimilar las nuevas tecnologías para su aplicación inmediata y a futuro.

Ver perfil

Secciones
Inicio
Contacto
Tópicos
COMUNICADO (5)
INFORMACIÓN TECNOLÓGICA (143)
NOTICIAS para el debate (59)
NOTIFICACIONES (6)
PRÁCTICAS (8)
PROGRAMAS (2)
SEGURIDAD INFORMÁTICA (97)
TEORÍA (79)
TRABAJO FINAL (3)
Nube de tags  [?]
Enlaces
Calendario
Ver mes anterior Marzo 2024 Ver mes siguiente
DOLUMAMIJUVISA
12
3456789
10111213141516
17181920212223
24252627282930
31
Más leídos
10 aplicaciones útiles para llevar a todos lados 10 en un pendrive
10 Herramientas para Profesores creativos
15 buscadores para web profunda #OSINT (15 deep web search)
150 herramientas didácticas gratuitas para crear materiales educativos con tics
Alternativas para los que no quieran seguir usando WhatsApp
Así comprime la información tu computadora
Los peligros para los menores en Internet
Tecnología educativa Política, historias, propuestas
Trabajo Práctico 002A
WORD AUTORESUMEN
FULLServices Network | Blog profesional | Privacidad