Microsoft en realidad dice que Copilot es sólo para «fines de entretenimiento»


Calvin Wankhede / Autoridad de Android

TL;DR

  • Los términos de uso de Copilot de Microsoft establecen explícitamente: «Copilot es sólo para fines de entretenimiento».
  • Mientras que otras empresas de IA advierten a los usuarios que vuelvan a verificar los resultados de la IA, el descargo de responsabilidad de Copilot va más allá.
  • Microsoft ha promovido fuertemente el uso empresarial de Copilot a pesar de que el mensaje es puramente de entretenimiento.

A pesar de todas las quejas que la gente hace acerca de que la IA reemplaza las habilidades humanas, hay otra cara de esto: el auge de la IA también ha obligado a los humanos a desarrollar nuevas habilidades, particularmente cuando se trata de la capacidad de separar los resultados útiles de la IA de la basura errónea y alucinatoria. En los últimos años, muchos de nosotros hemos avanzado bastante en esto y estamos tratando de explotar las limitaciones que experimentamos con tantos agentes de IA. Si bien las empresas detrás de estos proyectos también son conscientes de las limitaciones que enfrentamos, una de ellas parece estar sobrecompensando un poco en el departamento legal, ya que los usuarios de Copilot notaron algunos lenguajes preocupantes en los términos de servicio de Microsoft.

No quiero perderme lo mejor de Autoridad de Android?

Cualquiera que use IA incluso para cosas serias ya debería saber cómo verificar la cordura de estos programas: la IA declarará con confianza los errores como verdades y los usuarios deben tener cuidado de no dar por sentado los resultados de su programa. En consecuencia, todos los grandes actores hacen un descargo de responsabilidad al respecto, tratando de promover los beneficios de sus productos reconociendo al mismo tiempo sus limitaciones. La revisión de Gemini de Google es un buen ejemplo de esto, ya que explica cómo Gemini hace lo que hace y al mismo tiempo llama la atención sobre áreas que aún necesitan mejorar.

Luego está Microsoft. Como muchas otras empresas que se dedican a la IA, les gusta anunciar todas las tareas importantes en las que Copilot puede ayudarle, como crear nuevas estrategias para su negocio:

A primera vista, no hay nada inusual allí, más o menos a la par de una plataforma de IA moderna. Solo esperamos que los clientes comerciales que Microsoft busca con un lugar como este no lean los términos de uso de Copilot en su totalidad (a través de Hardware de Tom). Porque si lo hacen, verán un aviso alarmante:

Copilot es sólo para fines de entretenimiento.

Lo «único» es hacer un intacto mucho trabajo ahí. Microsoft continuó:

Esto puede generar errores y es posible que no funcione según lo previsto. No confíe en Copilot para obtener consejos importantes. Utilice Copilot bajo su propia responsabilidad.

Ahora, Eso La parte real suena relativamente en línea con las exenciones de responsabilidad que hemos visto de otras compañías de IA: tenga cuidado y verifique la exactitud de cualquier resultado de IA antes de tomar medidas. Naturalmente, no nos detendríamos a pensar dos veces antes de que aparezca el término Copiloto.

Pero por alguna razón, Microsoft se vio obligado a regresar y agregar lo que esencialmente era «LOL JK» a todo el documento.

Honestamente, probablemente se trate simplemente de un abogado que siente la necesidad de sobrecorregir y encubrir la responsabilidad de Microsoft; simplemente fueron demasiado lejos en el proceso, provocando el ridículo. Si tan solo alguien le hubiera pedido a Copilot que verificara los requisitos y descubriera una posible situación embarazosa, excepto que, como ahora sabemos, ¡no fue diseñado para eso!

Gracias por ser parte de nuestra comunidad. Lea nuestra Política de comentarios antes de publicar.



Fuente