“La respuesta digital no es útil, es un problema”, dice Sergio Brodsky, psicólogo de Concordia, que asesora en la problemática del suicidio al Colegio de Psicólogos de Entre Ríos y desarrolla su trabajo relacionado con esa temática en Los Charrúas, Viale y Federal.
Brodsky marca distancia así con el dispositivo de Inteligencia Artificial “ORI” que lanzó el Gobierno provincial y que desató una polémica inesperada, con críticas a su desarrollo, la floja inclusión de opiniones de profesionales expertos en la materia en su desarrollo y por rozar cuestiones éticas en la atención de la problemática de salud mental.
“Es una medida equivocada, porque la Inteligencia Artificial, y todas las respuestas digitales/virtuales son parte del problema. La aparición de las pantallas tecnológicas, celulares, la digitalización de la vida, es un problema que nos va deshumanizando, va rompiendo el dialogo, la comunicación interhumana, el lazo afectivo, el lazo social, es decir es un problema”, plantea.
El profesional dice que en materia de salud mental, y en prevención del suicidio en particular, es clave el trabajo territorial y el involucramiento de todas las instituciones de la sociedad. “El trabajo de prevención que desarrollamos consta, por lo menos, de dos dimensiones. Una es la capacitación de todos los agentes institucionales y de y de todas las instituciones de la comunidad en la problemática de la prevención de suicidio, es decir, tanto una capacitación general como específica de prevención. ¿Qué significa esto? Que trabajamos con la escuela, capacitamos a los docentes, hacemos talleres con chicos. También con los clubes, con las iglesias, con el centro de salud, con el centro de jubilados, con los medios de comunicación, con todas las instituciones dándole capacitación respecto de qué es la prevención del suicidio y cuál es el rol que cada institución tiene en la prevención del suicidio, armando de ese modo redes interinstitucionales para la prevención del suicidio”.

De ese modo, agrega, “todos tienen los elementos básicos de los tres niveles de prevención. Fundamentalmente, el segundo nivel, que tiene que ver con la detección precoz y el tratamiento eficaz de las situaciones de riesgo de suicidio. ¿Qué significa esto? Que un docente, un vecino, un familiar, un profesor de un club saben cómo detectar situaciones de riesgo y qué hacer frente a esas situaciones de riesgo. Ahora esa es una primera dimensión. La segunda, que es muy importante, es que en esos lugares tenemos una asistencia inmediata frente a esas situaciones. Quiero decir que es otro problema que tenemos en el sistema de salud, que es que una persona va a un servicio de salud mental y, se encuentra con una lista de espera de tres, cuatro, cinco meses, lo cual es un problema. En esos lugares donde estamos trabajando aseguramos una primera escucha inmediata. ¿Qué significa esto? Que ante la consulta, se pueda entender. Que un docente, por ejemplo, detecta que un chico que tiene manifestaciones o ideas suicidas , que deja notas, que bajó el rendimiento escolar, que sufre bullying, que se autolesiona, que se duerme en clase, que manifiesta problemas familiares serios y toda una serie de indicadores que nosotros trabajamos con los con los docentes, con todos estos agentes de las instituciones y con la comunidad, sabe identificar esa situación y sabe que a través del trabajo en red puede recibir una asistencia psicológica inmediata”.
Esos tres pilares, el conocimiento, la información y el trabajo en red con la asistencia inmediata de las situaciones de riesgo, son clave, dice el profesional. Y sostiene que no solo son suficientes psicólogos y psiquiatras, sino que resulta relevante el trabajo integral comunitario y en red. permiten determinar que esa persona está en una situación de vulnerabilidad respecto al suicidio e intervenir para
Respecto del dispositivo “ORI”, sostiene: “La verdad que la Inteligencia Artificial para mí es más un problema que una solución. Todo lo que tiene que ver con la colonización digital de la vida es más un problema. Yo cuento siempre una anécdota que tuve el año pasado trabajando con docentes en relación a este tema. Una profe de Literatura contaba que le había dado como consigna a los alumnos identificar una emoción propia, y describirla. Esa era la consigna. Y los chicos, muchos chicos le dijeron que la habían hecho consultando la Inteligencia Artificial. La utilización de lo virtual está generando una desconexión de nuestras emociones muy grande. Creo que el tema de la virtualidad es hoy por hoy más un problema que nos separa, que nos aísla, que algo que vaya a resolvernos algún problema. Hay que resolver el hecho de que una persona vaya a un hospital, pida un turno con un psicólogo, porque está pasando una situación de angustia y, que esa persona tenga un acceso inmediato a la atención y no que sea puesto en lista de espera para un plazo de cinco o seis meses, porque no hay psicólogo, porque no hay psiquiatra, porque el sistema está colapsado. El acceso a la salud mental debe ser un derecho, que el Estado debe garantizar, y esa garantía tiene con la inversión en recursos humanos y en políticas públicas para que la gente pueda recibir esa atención de salud mental. Después que todo eso esté resuelto -que hoy está lejos de ser resuelto- podemos pensar en qué lugar puede tener la Inteligencia Artificial como una cosa bien secundaria, como un instrumento absolutamente secundario.
Fuente: Entre Ríos Ahora















