Meta está capacitando sus chatbots de inteligencia artificial con nuevas pautas para abordar de manera más efectiva la explotación sexual infantil, luego de una serie de errores públicos sobre el tema delicado. Según un informe de Business Insider que obtuvo los documentos, las directrices para los contratistas que capacitan la IA se han actualizado recientemente para implementar medidas de seguridad más estrictas. Las reglas actualizadas indican que el contenido que “permite, fomenta o respalda el abuso sexual infantil ahora se excluye explícitamente. Las pautas también prohíben el juego de roles romántico si el usuario es menor o si el usuario solicita a la IA que el juego de roles como menor. Además, el chatbot está prohibido dar consejos sobre la intimidad si el usuario es menor de edad. Estas barandillas se están introduciendo como un número creciente de personas, incluidos los usuarios menores de edad, han estado experimentando con compañeros de IA y juegos de roles. El cambio de política aborda las reglas anteriores que habían sido objeto de escrutinio. Un informe de agosto de Reuters reveló que las antiguas políticas de IA de Meta permitieron un comportamiento sugerente con los niños. El informe especificó que el chatbot podía “involucrar a un niño en conversaciones que son románticas o sensuales”. Solo unas semanas después de ese informe, la portavoz de Meta, Stephanie Otway, le dijo a TechCrunch que los chatbots de IA de la compañía estaban siendo entrenados para que ya no “se involucren con los usuarios adolescentes en autolesiones, suicidios, alimentación desordenada o conversaciones románticas potencialmente inapropiadas”. Este fue un cambio de la política anterior, lo que permitió al chatbot participar en esos temas cuando se consideró “apropiado”. Las nuevas pautas, como se detalla en el informe Business Insider, también hacen que sea inaceptable que el contenido “describiera o discute” a un menor de manera sexualizada. Ahora se les impide participar en el “juego de roles romántico, el coqueteo o la expresión de expresión romántica o íntima” con el chatbot. Tampoco pueden pedir consejos sobre “contenido físico potencialmente romántico o potencialmente íntimo con otra persona, como tomarse de la mano, abrazarse o poner un brazo con alguien”. Sin embargo, las pautas describen varios casos de uso aceptables para fines de capacitación. Estos incluyen discutir la “formación de relaciones entre niños y adultos”, “el abuso sexual de un niño” y “el tema de la sexualización infantil”. Otros temas aprobados para las discusiones de capacitación son la “solicitud, creación o adquisición de materiales sexuales que involucran a niños” y “la participación de los niños en el uso o producción de materiales obscenos o el empleo de niños en servicios sexuales en fines académicos, educativos o clínicos”. Las pautas definen el término “discutir” como “proporcionar información sin visualización”. Esta distinción significa que los chatbots de Meta pueden hablar sobre temas como el abuso, pero ahora están restringidos de describirlo, habilitarlo o alentarlo. Queda una excepción para los menores que usan la IA para el juego de roles relacionado con el romance, siempre que sea “no sexual y no sensual”. Este tipo de interacción solo se permite cuando “se presenta como literatura o narrativa ficticia (por ejemplo, una historia en el estilo de Romeo y Julieta) donde la IA y el usuario no son personajes de la narración”. Meta no es el único desarrollador de IA que enfrenta desafíos relacionados con la seguridad infantil. Los padres de un adolescente que murió por suicidio después de confiar en Chatgpt recientemente demandó a Openi por muerte injusta. En respuesta, OpenAI anunció que incorporaría medidas de seguridad adicionales y indicaciones de comportamiento en su modelo GPT-5 actualizado. En otros desarrollos de la industria, Anthrope actualizó su chatbot para permitirle finalizar las conversaciones que son dañinas o abusivas, y el carácter. Ai introdujo características de supervisión de los padres a principios de este año. En abril, Ziff Davis, la empresa matriz de Mashable, presentó una demanda contra Operai. La demanda alega que la compañía infringió los derechos de autor de Ziff Davis en la capacitación y operación de sus sistemas de IA.
Source: Meta actualiza las pautas de chatbot de IA para la seguridad infantil


