Big Tech ya nos advierte sobre los problemas de privacidad de la IA


 Suponiendo atención.


The Money Road Diary dice que Apple ha restringido ChatGPT de OpenAI y Copilot de Microsoft. El sello Gurman de Bloomberg dice que ChatGPT ha sido boicoteado durante mucho tiempo.


En tecnología, son Apple, Samsung, Verizon y Bank of America, Citi, Deutsche Bank, Goldman, Wells Fargo y JPMorgan. Debido al riesgo de fuga de material clasificado, la estrategia de protección de ChatGPT establece que sus indicaciones se pueden usar para entrenar sus modelos a menos que abandone. En Walk, un problema de ChatGPT expuso los datos del cliente.


Creo que estos boicots son particularmente ruidosos.


Esta innovación reduce los costos en el servicio al cliente. Sin embargo, los clientes deben revelar sus sutilezas, a veces privadas, a veces delicadas, para que funcione la atención al cliente. Los bots de atención al cliente de las empresas: ¿cómo?


Esto va más allá de la atención al cliente. Imagine que las películas de Disney's Wonder fueron hechas por inteligencia artificial en lugar de estudios de VFX. ¿Puede Disney proporcionar spoilers de Wonder?


Las empresas emergentes, como la rama más joven de Facebook, no priorizan la seguridad de los datos. En general, el consejo de OpenAI de restringir la apertura de materiales delicados es sólido. ("Por favor, no ofrezca datos delicados en sus discusiones"). No se trata de IA.


Sin embargo, tengo curiosidad acerca de los inconvenientes de los chatbots de inteligencia simulada. La cifra es un costo de IA. Desarrollar su propia granja de servidores es costoso, pero usar la figura de la nube significa que sus preguntas se procesan en un servidor remoto, donde realmente depende de otra persona para recibir sus datos. Puede ver por qué los bancos pueden tener mala suerte aquí: los datos financieros son confidenciales.


Además de los lanzamientos públicos accidentales, es posible la vigilancia corporativa. Dado que el robo de innovación patentada es un riesgo, parece ser más una preocupación de la industria tecnológica. Sin embargo, las compañías de Enormous Tech saltaron a la transmisión, así que me pregunto si eso es un problema para la creatividad.


Los productos tecnológicos equilibran la seguridad y la portabilidad. Los clientes de Google y Facebook a menudo sacrifican su privacidad por regalos. Google Versifier afirma que las consultas "mejorarán y fomentarán los productos, las administraciones y los avances de IA de Google".


Es posible que estas empresas grandes, inteligentes y enfocadas en el misterio estén nerviosas y no tengan nada de qué preocuparse. Asume que tienen razón. Si esto es cierto, los chatbots de inteligencia artificial tienen dos opciones. La primera es que la ola de inteligencia simulada coincida con el metaverso, un fracaso. En segundo lugar, las empresas de IA deben actualizar y especificar claramente las prácticas de seguridad. En tercer lugar, cada organización que utilice inteligencia artificial debe construir su propio modelo u operar su propio manejo, lo que parece costoso y difícil de escalar. El cuarto es una pesadilla de seguridad basada en la web en la que su operador (o recaudadores de obligaciones, almacén de medicamentos, etc.) divulga su información con regularidad.


no tengo ni idea Sin embargo, si las corporaciones más enfocadas en la seguridad salvaguardan su uso de inteligencia simulada, puede estar justificado hasta el final de los tiempos.

Publicar un comentario

Artículo Anterior Artículo Siguiente