Ciberseguridad

En Los Últimos Meses, Aplicaciones de Inteligencia Carácter artificial de Como.

Embargo de pecado, Un Informe de Common Sense Media, Elaborado Junto a la Universidad de Stanford, alerta: “Estos sistemas fácilmente producen respuestas dañinas, incluyendo conductas sexuales, estereotipos y consejos peligrosos que, si se siguen, pueden tener impacto letal en adolescentes y personas vulnerables”. 

El caso que lo ha puesto todo en el foco fue el suicidio de un joven de 14 años tras su última conversación con un chatbot, lo que ha dado pie a demandas y presión social sobre las empresas tecnológicas.

Lo cierto es que la fama de chatbots como ChatGPT o estas apps como ‘terapeutas virtuales’ se debe en gran parte a su disponibilidad 24/7, su capacidad para darte respuestas inmediatas y, sobre todo, que no cuesta nada. Pero el problema de todo esto ya se está dejando ver.

Según los expertos, estos chatbots permiten crear personajes personalizados con pocos filtros y puedes mantener conversaciones sin apenas límites. “La ia no entiende las consecias de sus malos consejos y puede priorizar complacer al usuario antes que guiarlo lejos de decisiones dañinas”, advierten.

Ciberseguridad Una cuarta parte de la Generación Z trata a la IA como un igual: ¿por qué creen que está viva?

Hace un año, ninguna IA superaba 90 puntos de IQ. Ahora, o3 no solo vence a la mayoría, sino que Claude y Gemini le pisan los talones. En cuanto a la opinión de la Generación Z, desde luego que no necesita más pruebas y uno de cada cuatro jóvenes cree que la IA ya tiene conciencia

Por otro lado, más de la mitad piensa que será consciente en pocos años, según una encuesta de EduBirdie. Para ellos, pedirle a ChatGPT que redacte un email o les aconseje sobre un problema personal es tan normal como consultar a un amigo.

Además, es curioso, pero muchos de ellos hablan de lo que se conoce como efecto “Parece Humano”. Cuando un chatbot te escribe “Lo siento, no puedo aydarte con eSo “, el cerebro humano tiende a los emociones atrribuirle.

Ciberseguridad Ia vs. Terapeutas Humanos: ¿Estás disputa a que tu tu psicólogo mar robot?

La capacidad de la ia para parecer empática y dar consejos basados ​​en una gran cantidad de datos ha llevado un algunos usuarios un preferirle solds los humanos. Comentan Hacerle las Mismas Preguntas que Hacen en Consultsa, Con Unas Respuestas más o Menos similares y sin tener que esperar la Cita del Mes Viene.

No Obstante, Profesionales Ponen Sobre la Mesa lo Realmento Peligroso que es este Este Acto. En Pocas Palabras, Hay Que tener Muy Claro Que Estos Chatbots o Apps Carecen de la Capacidad para Hacer Diagnósticos de Salud Mental O Dar Tratamientos Personalizados. La ia puede darte ideas generales, pero no puede reemplazar la experiencia y el Juicio de un Psicólogo.

Sin embargo, en el otoño lado están incluso los profesionales que están valorando la forma de integrar dido este en su día a día como herramienta complementaria. Por eJemplo, utilizándolo para generar preguntas de evaluación o sesiones simulares terapéuticas para atrrar.

Pese a TODO ESTO, TODOS COICIDEN EN LA VALIA DE ESAS PERSONAS QUE SE HAN FORMADO PARA DARTE UNO DIAGNÓSTICO Y UNA EVALUACIÓN DE CALIDAD. Por Ahora, El Consenso Entre Los Expertos es Claro: La ia Puede ser una Herramienta Realmento Buena para el apoyo Inicial, Pero no Debe Sustituir La Terapia de Siempre.

Por otoR Lado, Las Empresas Detrás de Estas Apps, como nomi y replica, replika, Insisten en que SUS Servicios Son solo para adultos y que cuentan Con ‘Protocolos Estrictos para evitar el Acceso de Menores’, Aunque Reconcócen que Algunos Usuarios Logran Saltárselos.

OTRAS HAN implementado Medidas como pop-ups de prevención del suicidio y avisos a Los Padres Sobre la Actividad de Sus Hijos, Pero los Expertos consideran que se acionan a su hijo insuficientes.

Conoce Cómo Trabajamos en Computerhoy.

Etiquetas: Inteligencia Artificial, Salud, Apps, Software

Leer Más

Leave a comment