Noticias

lunes 24 de junio de 2024

Conmoción en el mundo de la IA: Perplexity acusado de prácticas cuestionables con datos

TECNOLOGIA

...

Foto: benzinga.com

Perplexity, un motor de búsqueda de IA, enfrenta críticas por ignorar el protocolo de exclusión de robots y raspar contenido de sitios web sin autorización, incluyendo Forbes y Wired. Las prácticas cuestionables de la empresa han generado un debate sobre la ética y legalidad en el uso de datos para entrenar tecnologías de inteligencia artificial


Recientemente, Forbes denunció que Perplexity había robado y republicado sus historias en múltiples plataformas. Poco después, Wired informó que Perplexity ha estado ignorando las instrucciones del archivo robots.txt en su sitio web y en otras publicaciones de Condé Nast. Además, el sitio web de tecnología The Shortcut también acusó a Perplexity de raspar sus artículos.

El archivo robots.txt, utilizado desde 1994, contiene instrucciones para los rastreadores web sobre qué páginas pueden y no pueden acceder. Sin embargo, su cumplimiento es completamente voluntario. Según Reuters, una carta de la startup TollBit a los editores advertía que "los agentes de IA de múltiples fuentes están optando por eludir el protocolo robots.txt para recuperar contenido de los sitios".

Business Insider reveló que OpenAI y Anthropic, creadores de los chatbots ChatGPT y Claude respectivamente, también están eludiendo las señales de robots.txt, a pesar de haber proclamado previamente que respetaban estas instrucciones.

Durante su investigación, Wired descubrió que un servidor operado por Perplexity estaba ignorando sus instrucciones de robots.txt y generando resultados que parafraseaban sus artículos con mínima atribución y, en ocasiones, con información incorrecta. En respuesta, el CEO de Perplexity, Aravind Srinivas, afirmó que su empresa no ignora el Protocolo de Exclusión de Robots, aunque admitió que utilizan rastreadores de terceros que podrían hacerlo. Srinivas sugirió que los editores y las empresas de IA deberían establecer nuevas relaciones para abordar estos problemas.

"El Protocolo de Exclusión de Robots no es un marco legal", dijo Srinivas, insinuando que los editores podrían necesitar adaptarse a la evolución tecnológica. Sin embargo, la práctica de raspar contenido sin autorización plantea importantes cuestiones éticas y legales sobre el uso de datos en el entrenamiento de tecnologías de IA.

La controversia subraya la necesidad de un diálogo más profundo entre los desarrolladores de IA y los propietarios de contenido, para garantizar que se respeten los derechos de autor y se mantenga la integridad del contenido en la era digital.



Fuente: Ximena Rodríguez


¿Quieres escuchar nuestras emisoras?

Radio