in

Google y Anthropic: Comparaciones en la carrera por la inteligencia artificial

Los contratistas de Google evalúan la precisión de Gemini frente a Claude de Anthropic.

Confronto tra Google e Anthropic nella IA
Scopri le differenze tra Google e Anthropic nella corsa all'IA.

La competencia en el desarrollo de inteligencia artificial

En el vertiginoso mundo de la inteligencia artificial (IA), las empresas tecnológicas están en una constante carrera por desarrollar modelos más avanzados y precisos. Recientemente, se ha revelado que Google está utilizando a contratistas para evaluar su modelo de IA, Gemini, comparándolo con el modelo Claude de Anthropic. Esta práctica ha suscitado interrogantes sobre la ética y la legalidad de utilizar un modelo competidor para mejorar el propio.

El proceso de evaluación de Gemini

Los contratistas asignados a la evaluación de Gemini tienen la tarea de calificar las respuestas generadas por este modelo en función de varios criterios, como la veracidad y la claridad. Según la correspondencia interna a la que tuvo acceso TechCrunch, estos evaluadores disponen de hasta 30 minutos para determinar cuál de las respuestas, la de Gemini o la de Claude, es superior. Este enfoque metódico busca asegurar que el modelo de Google no solo sea competitivo, sino que también cumpla con altos estándares de calidad.

Implicaciones éticas y legales

El uso de Claude en las pruebas de Gemini plantea cuestiones éticas significativas. Anthropic, la empresa detrás de Claude, tiene políticas estrictas que prohíben el uso de su modelo para desarrollar productos o servicios competidores sin su aprobación. A pesar de que Google es un inversor importante en Anthropic, no está claro si ha obtenido el permiso necesario para utilizar Claude en sus evaluaciones. Shira McNamara, portavoz de Google DeepMind, ha declarado que, aunque se comparan los resultados de los modelos, no se entrena a Gemini utilizando modelos de Anthropic, lo que deja en el aire la naturaleza exacta de esta colaboración.

Desafíos en la evaluación de IA

Los contratistas también han expresado preocupaciones sobre la capacidad de Gemini para generar información precisa en temas delicados, como la salud. Esta inquietud resalta la necesidad de un enfoque cuidadoso y responsable en el desarrollo de modelos de IA, especialmente cuando se trata de áreas que pueden impactar significativamente en la vida de las personas. La presión para mejorar la precisión y la seguridad de estos modelos es más alta que nunca, y las empresas deben equilibrar la innovación con la responsabilidad social.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¿Qué piensas?

Imagen que ilustra la protección de la privacidad con VPN

La importancia de las VPN para proteger tu privacidad en línea

Locandina del thriller Blink Twice su Prime Video

El thriller ‘Blink Twice’ llega a Prime Video: todo lo que necesitas saber