Esta es una compañía de medios de noticias dedicada a informarle las noticias más importantes del día y ayudarlo a descubrir un nuevo artista. Somos el sitio web de descubrimiento de artistas próximo número uno porque aprendemos a combinar noticias generales con música.

Post Page Advertisement [Top]

publicidad

please follow/ por favor seguir

comparti tu musica aqui

Submit your music to us using Share Pro

publicidad


 Las instantáneas se obtuvieron para ayudar a los médicos a realizar diagnósticos sobre infecciones.


Según un informe de The New York Times, un padre preocupado afirma que después de usar su teléfono inteligente Android para tomar fotografías de una infección en la ingle de su hijo, Google marcó las imágenes como material de abuso sexual infantil (CSAM). El padre tomó las fotos con su teléfono inteligente usando su teléfono inteligente Android. La organización terminó sus servicios, informó el incidente al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y provocó una investigación policial. Este incidente sacó a la luz las dificultades asociadas a determinar la diferencia entre una fotografía que constituye un posible abuso y una que es inocua después de haber pasado a formar parte de la biblioteca digital de un usuario, independientemente de si está almacenada en el sistema personal del usuario o en la nube. .


Cuando Apple lanzó su plan Child Safety el año anterior, varias personas expresaron su preocupación por los posibles efectos de desdibujar las líneas entre lo que debería y no debería considerarse privado. Como parte de la idea, Apple primero escanearía localmente las fotos tomadas en dispositivos Apple antes de subirlas a iCloud. Después de eso, la empresa compararía las fotos escaneadas con una base de datos hash mantenida por el NCMEC que contiene MASI reconocido. Si se encontraban suficientes coincidencias, un moderador humano examinaría el contenido y bloquearía la cuenta del usuario si contenía MASI si se determinaba que el contenido era inapropiado.


La Electronic Frontier Foundation (EFF), una organización sin fines de lucro que aboga por los derechos digitales, criticó la idea de Apple y afirmó que "crearía una puerta trasera en su vida personal" y que "representaría una disminución en la privacidad para todos los clientes de iCloud Photos". no es una mejora".


Apple finalmente decidió suspender la fase de escaneo de imágenes almacenadas, pero con el lanzamiento de iOS 15.2, la compañía siguió adelante e incluyó una función opcional para las cuentas de recién nacidos que se incluyen en un plan de uso compartido del hogar. La aplicación Mensajes en el dispositivo de un niño "analizará los archivos adjuntos de fotos y decidirá si una fotografía contiene desnudez, mientras conserva el cifrado de extremo a extremo de los mensajes" si los padres del niño aceptan tener esta función habilitada para la cuenta de su hijo. Si determina que un joven está desnudo, desenfocará la imagen, mostrará una advertencia para el niño y le ofrecerá recursos diseñados para ayudarlo a mantenerse seguro mientras está en línea.


El incidente principal que The New York Times llamó la atención del público tuvo lugar en febrero de 2021, durante un momento en que muchas prácticas médicas aún estaban cerradas como resultado del brote de COVID-19. Según un artículo publicado por el Times, un hombre llamado Mark (cuyo apellido no fue revelado) detectó una hinchazón en la región genital de su hijo y, a pedido de una enfermera, envió fotos del problema antes de una videoconsulta. En última instancia, los antibióticos fueron lo que el médico recomendó para tratar la enfermedad, y tuvieron éxito.


The New York Times informa que solo dos días después de tomar las imágenes, Mark recibió una notificación de Google que decía que sus cuentas habían sido restringidas debido a "contenido dañino" que supuestamente era "una violación flagrante de la póliza de seguro de Google y posiblemente podría ser ilegal". "


Google, junto con muchos otros servicios web como Facebook, Twitter y Reddit, ha empleado la coincidencia de hash con PhotoDNA de Microsoft para escanear imágenes enviadas con el fin de buscar coincidencias con MASI conocido. Condujo al arresto de un hombre en 2012 que había sido un autor sexual registrado en el pasado y había usado Gmail para enviarle fotografías de una niña más joven.


En 2018, Google anunció el debut de su conjunto de herramientas de IA API de seguridad de contenido. Este conjunto de herramientas tiene la capacidad de "percibir proactivamente imágenes de abuso sexual infantil nunca antes vistas" para que pueda evaluarse y, si se demuestra que es abuso sexual infantil, eliminarlo y pronunciarlo lo más rápido posible. Utiliza el gadget para sus propios productos y también lo pone a disposición de otras personas junto con una solución de coincidencia de hash CSAI Match de orientación de video que fue creada por ingenieros de YouTube.


Intente buscar "Combatir el abuso en nuestras estructuras y servicios personales" en Google:


Encontramos y documentamos MASI con la asistencia de grupos de expertos capacitados y tecnología de punta. Esta tecnología consiste en clasificadores de dominio informático y tecnología de coincidencia de hash, la última de las cuales genera un "hash", también conocido como huella digital única, para una imagen o un video para que pueda compararse con hashes de CSAM que ya están se sabe que existe. Cuando nos encontramos con MASI, lo informamos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que es una organización que se comunica con las agencias de aplicación de la ley ubicadas en todo el mundo.


Según una portavoz de Google, la empresa solo examina las imágenes privadas de los usuarios cuando realizan "acción afirmativa". que, por alguna razón, puede incluir subir sus fotografías a Google Photos para almacenarlas. Esta información fue proporcionada al Times. El New York Times informa que, según las normas federales, Google está obligado a informar cualquier fotografía explotadora que encuentre a CyberTipLine en el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). En el año 2021, Google informó 621 583 incidentes de abuso sexual infantil a CyberTipLine del NCMEC, y el NCMEC notificó a las autoridades sobre 4260 víctimas que se consideraban viables. The New York Times afirma que el hijo de Mark está incluido en esta lista de víctimas.


Según el Times, Mark no pudo recuperar el acceso a sus correos electrónicos, contactos, imágenes e incluso su número de teléfono después de usar la conexión celular proporcionada por Google Fi. Mark intentó recientemente apelar la decisión que tomó Google, pero Google rechazó la solicitud de Mark para hacerlo. En diciembre de 2021, Mark fue objeto de una investigación iniciada por el Departamento de Policía de San Francisco, que se encuentra en San Francisco, donde reside Mark. El Departamento de Policía de San Francisco obtuvo acceso a todas las estadísticas que Mark había guardado con Google. Según el New York Times, el investigador que investigaba el asunto finalmente llegó a la conclusión de que el hecho "ya no cumplía con los factores de un delito y, por lo tanto, no ocurrió ningún delito".


Christa Muldoon, representante de Google, escribió una notificación por correo electrónico a The Verge en la que declaró que el "material de abuso sexual infantil" (CSAM, por sus siglas en inglés) es repugnante y que la compañía está "comprometida a detener su propagación" en sus diversas plataformas. "Cumplimos con la regulación de los EE. UU. con respecto a la definición de lo que constituye CSAM, y usamos una combinación de ciencia de comparación de hash y cerebro sintético para detectarlo y eliminarlo de nuestras plataformas de acuerdo con esas regulaciones. Además, nuestro equipo de profesionales en seguridad infantil examina el contenido que se ha identificado para garantizar que sea preciso. También se comunican con los médicos para garantizar que podamos identificar instancias en las que los consumidores también pueden estar buscando asistencia médica.


Los críticos sostienen que la práctica de escanear las instantáneas de un usuario se entromete innecesariamente en el derecho a la privacidad del individuo, a pesar de la innegable importancia de proteger a los niños y adolescentes de daños. En un comunicado entregado al New York Times, Jon Callas, director de actividades tecnológicas de Electronic Frontier Foundation, se refirió a las tácticas de Google como "invasivas". Callas compartió esta información con el New York Times y dijo: "Esta es exactamente la pesadilla que nos aterroriza a todos". Van a escanear mi álbum de inicio, y una vez que lo hagan, tendré muchos problemas.

No hay comentarios.:

Publicar un comentario

subscribirte para recibir las noticias importante del dia de la musica

Bottom Ad [Post Page]