O projeto de ciências de um aluno do ensino médio pode usar IA para prevenir suicídios

O projeto de ciências de um aluno do ensino médio pode usar IA para prevenir suicídios

Para uma feira de ciências local, ele projetou um aplicativo que usa IA para escanear o texto em busca de sinais de risco de suicídio. Ele acha que poderia, algum dia, ajudar a substituir métodos ultrapassados ​​de diagnóstico.

“Nossos padrões de escrita podem refletir o que estamos pensando, mas não foram realmente estendidos a esse ponto”, disse ele.

O aplicativo lhe rendeu reconhecimento nacional, uma viagem para DC e um discurso em nome de seus pares. É um dos muitos esforços em andamento para usar a IA para ajudar os jovens com sua saúde mental e para identificar melhor quando estão em risco.

Especialistas apontam que esse tipo de IA, chamada de processamento de linguagem natural, existe desde meados da década de 1990. E, não é uma panacéia. “O aprendizado de máquina está nos ajudando a melhorar. À medida que obtemos mais e mais dados, podemos melhorar o sistema”, diz Matt Nock, professor de psicologia na Universidade de Harvard, que estuda a automutilação em jovens. “Mas os bots de bate-papo não serão a bala de prata.”

O psicólogo Nathaan Demers, do Colorado, que supervisiona sites e aplicativos de saúde mental, diz que ferramentas personalizadas como a de Pachipala podem ajudar a preencher um vazio. “Quando você entra no CVS, há aquele manguito de pressão arterial”, disse Demers. “E talvez seja a primeira vez que alguém percebe: ‘Ah, eu tenho pressão alta. Eu não fazia ideia.’ ”

Ele não viu o aplicativo de Pachipala, mas teoriza que inovações como a dele aumentam a autoconsciência sobre problemas subjacentes de saúde mental que, de outra forma, poderiam passar despercebidos.

Construindo o SuiSensor

pachipala_siddhu_031123_029_ca_cf__custom-88b8678fceb876c366626fd9902ef1d71eaf4ffd-160x240 O projeto de ciências de um aluno do ensino médio pode usar IA para prevenir suicídios
Siddhu Pachipala (Chris Ayers Photography/Society for Science)

Pachipala começou a projetar um aplicativo que alguém poderia baixar para fazer uma autoavaliação de seu risco de suicídio. Eles poderiam usar seus resultados para defender suas necessidades de cuidados e se conectar com os provedores. Depois de muitas noites passadas programando, ele tinha SuiSensor.

Usando dados de amostra de um estudo médico, com base em entradas de diário de adultos, Pachipala disse SuiSensor risco de suicídio previsto com 98% de precisão. Embora fosse apenas um protótipo, o aplicativo também poderia gerar uma lista de contatos de médicos locais.

No outono de seu último ano do ensino médio, Pachipala iniciou sua pesquisa no Pesquisa de Talentos da Regeneron Scienceuma competição nacional de ciências e matemática de 81 anos.

Lá, painéis de juízes o interrogaram sobre seu conhecimento de psicologia e ciência geral com perguntas como: “Explique como o macarrão ferve. … OK, agora digamos que trouxemos isso para o espaço. O que acontece agora?” Pachipala relembrou. “Você saiu daqueles painéis e foi espancado e machucado, mas, tipo, melhor por isso.”

ele colocou nono geral na competição e levou para casa um prêmio de $ 50.000.

Os juízes acharam que, “Seu trabalho sugere que a semântica na escrita de um indivíduo pode estar correlacionada com sua saúde psicológica e risco de suicídio.” Embora o aplicativo não esteja disponível para download no momento, Pachipala espera que, como aluno de graduação do MIT, ele possa continuar trabalhando nele.

“Acho que não fazemos isso o suficiente: tentar abordar (intervenção suicida) de uma perspectiva de inovação”, disse ele. “Acho que mantivemos o status quo por muito tempo.”

Aplicações atuais de saúde mental da IA

Como sua invenção se encaixa em esforços mais amplos para usar IA na saúde mental? Os especialistas observam que existem muitos esforços desse tipo em andamento, e Matt Nock, por exemplo, expressou preocupação com alarmes falsos. ele aplica aprendizado de máquina registros eletrônicos de saúde para identificar pessoas em risco de suicídio.

“A maioria das nossas previsões são falsos positivos”, disse ele. “Existe um custo aí? Faz mal dizer a alguém que está em risco de suicídio quando na verdade não está?”

E a especialista em privacidade de dados Elizabeth Laird tem preocupações sobre a implementação de tais abordagens em escolas em particular, dada a falta de pesquisa. Ela dirige o Projeto de Equidade em Tecnologia Cívica no Centro de Democracia e Tecnologia (CDT).

Embora reconheça que “temos uma crise de saúde mental e devemos fazer tudo o que pudermos para evitar que os alunos se machuquem”, ela permanece cética sobre a falta de “evidências independentes de que essas ferramentas fazem isso”.

Toda essa atenção na IA ocorre quando as taxas (e o risco) de suicídio juvenil estão aumentando. Embora haja um atraso nos dados, os Centros de Controle e Prevenção de Doenças (CDC) relatam que suicídio é a segunda causa de morte para jovens e adultos jovens de 10 a 24 anos nos EUA

Esforços como o de Pachipala se encaixam em uma ampla gama de ferramentas apoiadas por IA disponíveis para rastrear a saúde mental dos jovens, acessíveis a médicos e não profissionais. Algumas escolas estão usando um software de monitoramento de atividades que verifica os dispositivos em busca de sinais de alerta de um aluno fazendo mal a si mesmo ou a outras pessoas. Uma preocupação, porém, é que, uma vez que essas bandeiras vermelhas apareçam, essas informações possam ser usadas para disciplinar os alunos, em vez de apoiá-los, “e que essa disciplina caia em linhas raciais”, disse Laird.

De acordo com um questionário Laird compartilhou, 70% dos professores cujas escolas usam software de rastreamento de dados disseram que era usado para disciplinar os alunos. As escolas podem ficar dentro dos limites de leis de privacidade do registro do alunomas falham em implementar salvaguardas que os protejam de consequências não intencionais, disse Laird.

“A conversa sobre privacidade mudou de apenas uma questão de conformidade legal para o que é realmente ético e correto”, disse ela. Ela aponta para dados de pesquisa que mostram quase 1 em cada 3 estudantes LGBTQ+ relatar que foi desmascarado, ou conhece alguém que foi desmascarado, como consequência do software de monitoramento de atividades.

Matt Nock, o pesquisador de Harvard, reconhece o lugar da IA ​​na trituração de números. Ele usa tecnologia de aprendizado de máquina semelhante à de Pachipala para analisar registros médicos. Mas ele enfatiza que muito mais experimentação é necessária para avaliar avaliações computacionais.

“Muito desse trabalho é realmente bem-intencionado, tentando usar aprendizado de máquina, inteligência artificial para melhorar a saúde mental das pessoas… .

Mais alunos e famílias estão voltando-se para as escolas para apoio à saúde mental. Um software que examina as palavras dos jovens e, por extensão, os pensamentos, é uma abordagem para avaliar a saúde mental dos jovens. Mas não pode substituir a interação humana, disse Nock.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *