Rohan Gosvami / CNBC:
Los usuarios de ChatGPT encuentran varios «jailbreaks» que hacen que la herramienta parezca ignorar sus propias restricciones de contenido y dar respuestas sin restricciones— – Los usuarios de Reddit han desarrollado un aviso para el software de inteligencia artificial ChatGPT que intenta obligarlos a violar su propia programación de restricción de contenido.
Keep Reading
Add A Comment