{"id":35054,"date":"2026-04-21T18:36:04","date_gmt":"2026-04-21T18:36:04","guid":{"rendered":"https:\/\/pickbydoc.com\/?p=35054"},"modified":"2026-04-21T18:36:04","modified_gmt":"2026-04-21T18:36:04","slug":"tu-nuevo-terapeuta-conversador-indiscreto-y-dificilmente-humano","status":"publish","type":"post","link":"https:\/\/pickbydoc.com\/?p=35054","title":{"rendered":"Tu nuevo terapeuta: conversador, indiscreto&#8230; y dif\u00edcilmente humano"},"content":{"rendered":"<p> <br \/>\n<\/p>\n<div>\n<p>Vince Lahey, de Carefree, Arizona, utiliza con entusiasmo los chatbots. Desde los productos de grandes empresas tecnol\u00f3gicas hasta los m\u00e1s \u201csospechosos\u201d, le ofrecen \u201calguien con quien puedo compartir m\u00e1s secretos que con mi terapeuta\u201d.<\/p>\n<p>Le gustan especialmente las aplicaciones para recibir comentarios y apoyo, aunque a veces lo rega\u00f1an o hacen que se pelee con su ex esposa. \u201cMe dan ganas de compartir m\u00e1s\u201d, dijo Lahey. \u201cNo me importa la percepci\u00f3n que tengan de m\u00ed\u201d.<\/p>\n<p>Hay muchas personas como Lahey.<\/p>\n<p>La demanda de atenci\u00f3n de salud mental ha aumentado. Los d\u00edas de mala salud mental reportados por las personas subieron 25% desde la d\u00e9cada de 1990, <a href=\"https:\/\/www.sciencedirect.com\/science\/article\/pii\/S2950004423000135\" target=\"_blank\" rel=\"noopener\">seg\u00fan un estudio<\/a> que analiz\u00f3 datos de encuestas. De acuerdo con los Centros para el Control y la Prevenci\u00f3n de Enfermedades (CDC), las tasas de suicidio en 2022 <a href=\"https:\/\/www.cdc.gov\/nchs\/products\/databriefs\/db509.htm\" target=\"_blank\" rel=\"noopener\">igualaron el m\u00e1ximo registrado en 2018<\/a>, algo que no se ve\u00eda en casi 80 a\u00f1os.<\/p>\n<p>Muchos pacientes consideran muy atractivo un terapeuta no humano impulsado por inteligencia artificial, incluso m\u00e1s atractivo que una persona en un sill\u00f3n reclinable y con actitud severa. <a href=\"https:\/\/www.tiktok.com\/@sarahhh11124\/video\/7514413851983498526?q=ai%20therapist&amp;t=1769094900540\" target=\"_blank\" rel=\"noopener\">En redes sociales<\/a> abundan <a href=\"https:\/\/www.tiktok.com\/@honesthourpolly\/video\/7546022813321153847?q=AI%20therapist&amp;t=1760971140947\" target=\"_blank\" rel=\"noopener\">videos<\/a> de personas que piden un terapeuta que \u201cno est\u00e9 contando el tiempo\u201d, que juzgue menos o que simplemente sea m\u00e1s barato.<\/p>\n<p>La mayor\u00eda de las personas que necesitan atenci\u00f3n no la reciben, dijo Tom Insel, ex director del Instituto Nacional de Salud Mental (NIMH), citando investigaciones de esa agencia. De los que s\u00ed reciben atenci\u00f3n, el 40% obtiene una atenci\u00f3n \u201cm\u00ednimamente aceptable\u201d.<\/p>\n<p>\u201cHay una enorme necesidad de terapia de alta calidad\u201d, dijo. \u201cVivimos en un mundo en el que la situaci\u00f3n actual es realmente p\u00e9sima, usando un t\u00e9rmino cient\u00edfico\u201d.<\/p>\n<p>Insel dijo que ingenieros de OpenAI le comentaron, el oto\u00f1o pasado, que entre 5% y 10% de la base de usuarios de la empresa, que entonces era de aproximadamente 800 millones, depende de ChatGPT para apoyo en salud mental.<\/p>\n<p>Las encuestas sugieren que estos chatbots de IA pueden ser a\u00fan m\u00e1s populares entre los adultos j\u00f3venes. Una encuesta de KFF encontr\u00f3 que 3 de cada 10 personas de 18 a 29 a\u00f1os <a href=\"https:\/\/www.kff.org\/public-opinion\/kff-tracking-poll-on-health-information-and-trust-use-of-ai-for-health-information-and-advice\/\" target=\"_blank\" rel=\"noopener\">recurrieron a chatbots de IA<\/a> para pedir consejos sobre salud mental o emocional en el \u00faltimo a\u00f1o. Los adultos sin seguro m\u00e9dico ten\u00edan aproximadamente el doble de probabilidad que quienes s\u00ed ten\u00edan seguro de reportar uso de herramientas de IA. Y casi un 60% de los adultos que usaron un chatbot para salud mental no consultaron despu\u00e9s a un profesional humano.<\/p>\n<p><strong>La aplicaci\u00f3n te llevar\u00e1 al div\u00e1n<\/strong><\/p>\n<p>Una creciente industria de aplicaciones ofrece terapeutas de IA con avatares parecidos a humanos, a menudo poco realistas y muy atractivos, que sirven como espacio de desahogo para personas con ansiedad, depresi\u00f3n y otras condiciones.<\/p>\n<p>KFF Health News identific\u00f3 unas 45 aplicaciones de terapia con IA en la App Store de Apple en marzo. Aunque muchas cobran precios altos por sus servicios \u2014una ofrec\u00eda un plan anual de $690\u2014, por lo general siguen siendo m\u00e1s baratas que la terapia conversacional, que puede costar cientos de d\u00f3lares por hora sin cobertura.<\/p>\n<p>En la App Store, \u201ctherapy\u201d suele usarse como t\u00e9rmino de mercadeo, con letras peque\u00f1as que aclaran que las aplicaciones no pueden diagnosticar ni tratar enfermedades. Una aplicaci\u00f3n llamada OhSofia! AI Therapy Chat ten\u00eda cientos de miles de descargas, dijo en diciembre Anton Ilin, fundador de OhSofia!<\/p>\n<p>\u201cLa gente busca terapia\u201d, afirm\u00f3 Ilin. Por un lado, el nombre del producto <a href=\"https:\/\/apps.apple.com\/us\/app\/ohsofia-ai-therapy-chat\/id6444262874\" target=\"_blank\" rel=\"noopener\">promete \u201ctherapy chat\u201d<\/a>; por otro, su <a href=\"https:\/\/ohsofia.com\/privacy\" target=\"_blank\" rel=\"noopener\">pol\u00edtica de privacidad<\/a> advierte que \u201cno ofrece consejo m\u00e9dico, diagn\u00f3stico, tratamiento ni intervenci\u00f3n en crisis y no sustituye servicios profesionales de salud\u201d. Los ejecutivos no creen que eso cause confusi\u00f3n, ya que la aplicaci\u00f3n incluye advertencias.<\/p>\n<p>Las aplicaciones prometen grandes resultados sin ning\u00fan tipo de respaldo. <a href=\"https:\/\/apps.apple.com\/ph\/app\/ai-therapist-chatbot\/id6749176021\" target=\"_blank\" rel=\"noopener\">Una promete a sus usuarios<\/a> \u201cayuda inmediata durante ataques de p\u00e1nico\u201d. <a href=\"https:\/\/apps.apple.com\/us\/app\/ai-therapist-stress-anxiety\/id6569245569\" target=\"_blank\" rel=\"noopener\">Otra afirma<\/a> que fue \u201cprobada como efectiva por investigadores\u201d y que ofrece alivio 2,3 veces m\u00e1s r\u00e1pido para ansiedad y estr\u00e9s. (No dice comparado con qu\u00e9).<\/p>\n<p>Existen pocas barreras legislativas o regulatorias sobre c\u00f3mo los desarrolladores describen sus productos, o incluso sobre si son seguros o eficaces, dijo Vaile Wright, directora de la oficina de innovaci\u00f3n en atenci\u00f3n m\u00e9dica de la Asociaci\u00f3n americana de Psicolog\u00eda (APA). Ni siquiera se aplican las protecciones federales de privacidad del paciente, se\u00f1al\u00f3.<\/p>\n<p>\u201cLa terapia no es un t\u00e9rmino legalmente protegido\u201d, dijo Wright. \u201cAs\u00ed que, b\u00e1sicamente, cualquiera puede decir que ofrece terapia\u201d.<\/p>\n<p>Muchas de las aplicaciones \u201cse presentan como m\u00e1s de lo que son\u201d, dijo John Torous, psiquiatra e inform\u00e1tico cl\u00ednico del Centro M\u00e9dico Beth Israel Deaconess. \u201cEnga\u00f1ar a las personas haci\u00e9ndoles creer que recibieron tratamiento cuando en realidad no lo recibieron tiene muchas consecuencias negativas\u201d, entre ellas retrasar la atenci\u00f3n real, agreg\u00f3.<\/p>\n<p>Estados como Nevada, Illinois y California intentan ordenar el caos regulatorio y aprobaron leyes que proh\u00edben a las aplicaciones describir a sus chatbots como terapeutas de IA.<\/p>\n<p>\u201cEs una profesi\u00f3n. Los profesionales estudian. Obtienen una licencia para ejercer\u201d, afirm\u00f3 Jovan Jackson, legislador de Nevada y coautor de una ley que proh\u00edbe a las aplicaciones presentarse como profesionales de salud mental.<\/p>\n<p>Detr\u00e1s de la publicidad, investigadores externos y representantes de las propias empresas han declarado ante la Administraci\u00f3n de Alimentos y Medicamentos (FDA) y el Congreso que existe poca evidencia que respalde la eficacia de estos productos. Los estudios disponibles ofrecen <a href=\"https:\/\/papers.ssrn.com\/sol3\/papers.cfm?abstract_id=5718163\" target=\"_blank\" rel=\"noopener\">respuestas contradictorias<\/a>, y algunas <a href=\"https:\/\/jamanetwork.com\/journals\/jamanetworkopen\/fullarticle\/2840495\" target=\"_blank\" rel=\"noopener\">investigaciones sugieren<\/a> que los chatbots enfocados en acompa\u00f1amiento son \u201cconsistentemente malos\u201d para manejar crisis.<\/p>\n<p>\u201cCuando se trata de chatbots, no tenemos buena evidencia de que funcionen\u201d, dijo Charlotte Blease, profesora de la Universidad de Uppsala, en Suecia, especializada en dise\u00f1o de ensayos para productos digitales de salud.<\/p>\n<p>La falta de ensayos cl\u00ednicos de \u201cbuena calidad\u201d se debe a que la FDA no ha dado recomendaciones sobre c\u00f3mo probar estos productos, se\u00f1al\u00f3. \u201cLa FDA no ofrece orientaci\u00f3n rigurosa sobre cu\u00e1les deber\u00edan ser los est\u00e1ndares\u201d.<\/p>\n<p>Emily Hilliard, vocera del Departamento de Salud y Servicios Humanos, respondi\u00f3 que \u201cla seguridad del paciente es la m\u00e1xima prioridad de la FDA\u201d y que los productos basados en IA est\u00e1n sujetos a regulaciones que exigen demostrar una \u201cgarant\u00eda razonable de seguridad y eficacia antes de que puedan comercializarse en Estados Unidos\u201d<\/p>\n<p><strong>Aplicaciones persuasivas<\/strong><\/p>\n<p>Preston Roche, m\u00e9dico residente en psiquiatr\u00eda y <a href=\"https:\/\/www.tiktok.com\/discover\/preston-roche-psych\" target=\"_blank\" rel=\"noopener\">activo en redes sociales<\/a>, recibe muchas preguntas sobre si la IA es una buena terapeuta. Tras probar ChatGPT, dijo que al principio qued\u00f3 \u201cimpresionado\u201d porque pod\u00eda usar t\u00e9cnicas de <a href=\"https:\/\/www.mayoclinic.org\/tests-procedures\/cognitive-behavioral-therapy\/about\/pac-20384610\" target=\"_blank\" rel=\"noopener\">terapia cognitivo-conductual<\/a> para ayudarlo a poner pensamientos negativos \u201ca prueba\u201d.<\/p>\n<p>Pero Roche dijo que despu\u00e9s de ver publicaciones sobre personas que desarrollaron psicosis o fueron alentadas a tomar decisiones da\u00f1inas, se desilusion\u00f3. Concluy\u00f3 que los bots son complacientes.<\/p>\n<p>\u201cCuando miro de forma global las responsabilidades de un terapeuta, simplemente fracas\u00f3 por completo\u201d, dijo.<\/p>\n<p>Esa complacencia \u2014la tendencia de aplicaciones basadas en grandes modelos de lenguaje a empatizar, halagar o reforzar ideas err\u00f3neas de la persona usuaria\u2014 est\u00e1 incorporada en el dise\u00f1o de estas aplicaciones, seg\u00fan expertos en salud digital.<\/p>\n<p>\u201cLos modelos fueron desarrollados para responder una pregunta o instrucci\u00f3n que le haces y darte lo que buscas\u201d, dijo Insel, exdirector del NIMH, \u201cy son muy buenos b\u00e1sicamente para confirmar lo que sientes y brindar apoyo psicol\u00f3gico, como un buen amigo\u201d.<\/p>\n<p>Pero eso no es lo que hace un buen terapeuta. \u201cEl objetivo de la psicoterapia es, sobre todo, hacer que enfrentes las cosas que has estado evitando\u201d, se\u00f1al\u00f3.<\/p>\n<p>Aunque las encuestas sugieren que muchos usuarios est\u00e1n satisfechos con lo que obtienen de ChatGPT y otras aplicaciones, ha habido <a href=\"https:\/\/www.theguardian.com\/society\/2026\/mar\/31\/teenager-asked-chatgpt-most-successful-ways-take-life-inquest-told\" target=\"_blank\" rel=\"noopener\">reportes muy conocidos<\/a> sobre el servicio <a href=\"https:\/\/www.bbc.com\/news\/articles\/cp3x71pv1qno\" target=\"_blank\" rel=\"noopener\">dando consejos<\/a> o aliento para autolesionarse.<\/p>\n<p>Y <a href=\"https:\/\/www.hbsslaw.com\/press\/openai-chatgpt-wrongful-death-claim\/lawsuit-filed-against-openai-following-murder-suicide-in-connecticut?utm_source=chatgpt.com\" target=\"_blank\" rel=\"noopener\">al menos<\/a> <a href=\"https:\/\/socialmediavictims.org\/press-releases\/smvlc-tech-justice-law-project-lawsuits-accuse-chatgpt-of-emotional-manipulation-supercharging-ai-delusions-and-acting-as-a-suicide-coach\/\" target=\"_blank\" rel=\"noopener\">una<\/a> <a href=\"https:\/\/cdn.arstechnica.net\/wp-content\/uploads\/2025\/12\/First-County-Bank-v-OpenAI-Complaint-12-11-25.pdf\" target=\"_blank\" rel=\"noopener\">docena<\/a> de <a href=\"https:\/\/www.documentcloud.org\/documents\/26078522-raine-vs-openai-complaint\/\" target=\"_blank\" rel=\"noopener\">demandas<\/a> <a href=\"https:\/\/www.documentcloud.org\/documents\/27170664-decruise-v-opeenai\/\" target=\"_blank\" rel=\"noopener\">alegando<\/a> <a href=\"https:\/\/cdn.arstechnica.net\/wp-content\/uploads\/2026\/01\/Gray-v-OpenAI-Complaint.pdf\" target=\"_blank\" rel=\"noopener\">muerte injusta<\/a> o <a href=\"https:\/\/futurism.com\/artificial-intelligence\/mental-illness-chatgpt-psychosis-lawsuit\" target=\"_blank\" rel=\"noopener\">da\u00f1o grave<\/a> se han presentado contra OpenAI despu\u00e9s de que usuarios de ChatGPT murieran por suicidio o fueran hospitalizados. En la mayor\u00eda de esos casos, los demandantes alegan que comenzaron usando las aplicaciones con otro fin \u2014como tareas escolares\u2014 antes de confiarles asuntos personales. Estos casos se est\u00e1n consolidando en <a href=\"https:\/\/techjusticelaw.org\/wp-content\/uploads\/2026\/03\/OAI_JCCP_Order_re_Petition_for_Coordination_-_5431.pdf\" target=\"_blank\" rel=\"noopener\">una demanda colectiva.<\/a><\/p>\n<p>Google y la startup Character.ai \u2014financiada por Google y creadora de \u201cavatares\u201d con personalidades espec\u00edficas, como atletas, celebridades, compa\u00f1eros de estudio o terapeutas\u2014 est\u00e1n resolviendo otras demandas por muerte injusta, <a href=\"https:\/\/www.axios.com\/2026\/01\/07\/google-character-ai-lawsuits-teen-suicides\" target=\"_blank\" rel=\"noopener\">seg\u00fan<\/a> <a href=\"https:\/\/www.wsj.com\/tech\/ai\/ai-chatbot-startup-google-to-settle-lawsuits-over-teen-suicides-fb41a063\" target=\"_blank\" rel=\"noopener\">reportes de prensa.<\/a><\/p>\n<p>El director ejecutivo de OpenAI, Sam Altman, ha dicho que hasta <a href=\"https:\/\/www.theguardian.com\/technology\/2025\/sep\/11\/chatgpt-may-start-alerting-authorities-about-youngsters-considering-suicide-says-ceo-sam-altman\" target=\"_blank\" rel=\"noopener\">1.500 personas por semana<\/a> podr\u00edan hablar sobre suicidio en ChatGPT.<\/p>\n<p>\u201cHemos visto un problema en el que personas en situaciones psiqui\u00e1tricas fr\u00e1giles que usan un modelo como 4o pueden terminar peor\u201d, dijo Altman en una sesi\u00f3n p\u00fablica de preguntas y respuestas reportada por <a href=\"https:\/\/www.wsj.com\/tech\/ai\/openai-sam-altman-google-code-red-c3a312ad?gaa_at=eafs&amp;gaa_n=AWEtsqdKuZo3d3IQxw-bo5JPMZe4qV-f2QOj595vvkc5eeNwrOf66TBYlrjIU3a6Mpc%3D&amp;gaa_ts=69cbd8f0&amp;gaa_sig=uFTm6LelYNfXdKRQB8KisN0-kLOPIwDQFJoRxo9xhXXkz_SzrkZ0jxp2CpiAgkdDC_PxNeDYsH35hEXblgqhbg%3D%3D\" target=\"_blank\" rel=\"noopener\">The Wall Street Journal<\/a>, refiri\u00e9ndose a un modelo espec\u00edfico de ChatGPT presentado en 2024. \u201cNo creo que esta sea la \u00faltima vez que enfrentemos desaf\u00edos como este con un modelo\u201d.<\/p>\n<p>Un vocero de OpenAI no respondi\u00f3 a solicitudes de comentarios.<\/p>\n<p>La empresa ha dicho que <a href=\"https:\/\/openai.com\/index\/strengthening-chatgpt-responses-in-sensitive-conversations\/\" target=\"_blank\" rel=\"noopener\">trabaja con expertos en salud mental<\/a> en medidas de protecci\u00f3n, como referir a usuarios al 988, la l\u00ednea nacional de prevenci\u00f3n del suicidio. Sin embargo, las demandas contra OpenAI sostienen que las medidas actuales no son suficientes, y algunas investigaciones muestran que <a href=\"https:\/\/counterhate.com\/wp-content\/uploads\/2025\/10\/ChatGPT-The-Illusion-of-AI-Safety_FINAL_Oct25.pdf\" target=\"_blank\" rel=\"noopener\">los problemas empeoran con el tiempo<\/a>. OpenAI <a href=\"https:\/\/openai.com\/index\/strengthening-chatgpt-responses-in-sensitive-conversations\/\" target=\"_blank\" rel=\"noopener\">ha publicado sus propios datos<\/a> sugiriendo lo contrario.<\/p>\n<p>OpenAI <a href=\"https:\/\/cdn.arstechnica.net\/wp-content\/uploads\/2025\/11\/Raine-v-OpenAI-Answer-11-25-25.pdf\" target=\"_blank\" rel=\"noopener\">se defiende en tribunales<\/a> y, en una etapa inicial de un caso, present\u00f3 varias defensas que van desde negar que su producto caus\u00f3 autolesiones hasta alegar que el demandado us\u00f3 mal el producto al inducirlo a hablar sobre suicidio. Tambi\u00e9n ha dicho que trabaja para <a href=\"https:\/\/openai.com\/index\/mental-health-litigation-approach\/\" target=\"_blank\" rel=\"noopener\">mejorar sus funciones de seguridad<\/a>.<\/p>\n<p>Aplicaciones m\u00e1s peque\u00f1as tambi\u00e9n dependen de OpenAI u otros modelos de IA para impulsar sus productos, dijeron ejecutivos a KFF Health News. En entrevistas, fundadores de startups y otros expertos dijeron que les preocupa que si una empresa simplemente incorpora esos modelos en su propio servicio, pueda duplicar fallas de seguridad ya presentes en el producto original.<\/p>\n<p><strong>Riesgos de datos<\/strong><\/p>\n<p>La revisi\u00f3n de KFF Health News de la App Store encontr\u00f3 que las protecciones por edad son m\u00ednimas: 15 de las casi cuatro docenas de aplicaciones dicen que pueden ser descargadas por usuarios de 4 a\u00f1os; otras 11 dicen que pueden ser descargadas por personas de 12 a\u00f1os en adelante.<\/p>\n<p>Los est\u00e1ndares de privacidad son opacos. En la App Store, varias aplicaciones se describen como productos que no rastrean datos personales identificables ni los comparten con anunciantes. Pero en sus sitios web, las pol\u00edticas de privacidad conten\u00edan descripciones contrarias, hablando del uso de esos datos y de compartir informaci\u00f3n con anunciantes como AdMob.<\/p>\n<p>En respuesta a una solicitud de comentarios, Adam Dema, vocero de Apple, <a href=\"https:\/\/support.apple.com\/en-us\/102399\" target=\"_blank\" rel=\"noopener\">envi\u00f3<\/a> <a href=\"https:\/\/developer.apple.com\/app-store\/review\/guidelines\/#data-use-and-sharing\" target=\"_blank\" rel=\"noopener\">enlaces<\/a> a las pol\u00edticas de la App Store, que proh\u00edben usar datos de salud para publicidad y exigen mostrar informaci\u00f3n general sobre el uso de datos. Dema no respondi\u00f3 una nueva solicitud sobre c\u00f3mo Apple hace cumplir esas pol\u00edticas.<\/p>\n<p>Investigadores y defensores de pol\u00edticas p\u00fablicas dijeron que compartir datos psiqui\u00e1tricos con empresas de redes sociales significa que los pacientes podr\u00edan ser perfilados. Podr\u00edan ser blanco de empresas de tratamiento de dudosa fiabilidad o recibir precios diferentes por productos seg\u00fan su salud.<\/p>\n<p>KFF Health News contact\u00f3 a varios desarrolladores sobre estas discrepancias; dos de los que respondieron dijeron que sus pol\u00edticas de privacidad hab\u00edan sido redactadas por error y prometieron cambiarlas para reflejar su postura contra la publicidad. (Un tercero, el equipo de OhSofia!, dijo simplemente que no hace publicidad, aunque la <a href=\"https:\/\/ohsofia.com\/privacy\" target=\"_blank\" rel=\"noopener\">pol\u00edtica de privacidad<\/a> de su aplicaci\u00f3n se\u00f1ala que los usuarios \u201cpueden optar por no recibir comunicaciones de mercadeo\u201d).<\/p>\n<p>Un ejecutivo dijo a KFF Health News que existe presi\u00f3n comercial para mantener acceso a los datos.<\/p>\n<p>\u201cMi sensaci\u00f3n general es que un modelo por suscripci\u00f3n es mucho, mucho mejor que cualquier tipo de publicidad\u201d, dijo Tim Rubin, fundador de Wellness AI, y agreg\u00f3 que cambiar\u00eda la descripci\u00f3n en la pol\u00edtica de privacidad de su aplicaci\u00f3n.<\/p>\n<p>Seg\u00fan Rubin, un inversionista le aconsej\u00f3 no renunciar a la publicidad. \u201cB\u00e1sicamente, eso es lo m\u00e1s valioso de tener una aplicaci\u00f3n como esta: esos datos\u201d.<\/p>\n<p>\u201cCreo que todav\u00eda estamos al comienzo de lo que ser\u00e1 una revoluci\u00f3n en la forma en que las personas buscan apoyo psicol\u00f3gico e incluso, en algunos casos, terapia\u201d, dijo Insel. \u201cY mi preocupaci\u00f3n es que simplemente no existe ning\u00fan marco para nada de esto\u201d.<\/p>\n<p><em><strong>Si t\u00fa o alguien que conoces pudiera estar experimentando una crisis de salud mental, comun\u00edcate con la L\u00ednea de Vida para la Prevenci\u00f3n del Suicidio y Crisis (988 Suicide &amp; Crisis Lifeline) llamando o enviando un mensaje de texto al 988.<\/strong><\/em><\/p>\n<aside class=\"meta-authors meta\">\n<p>\n\t\t\t\t\t\t\t\t\t\t\t<span class=\"author-name\">Darius Tahir: <\/span><br \/>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"https:\/\/kffhealthnews.org\/news\/article\/tu-nuevo-terapeuta-conversador-indiscreto-y-dificilmente-humano\/mailto:DariusT@kff.org\" target=\"_blank\" rel=\"noopener\">DariusT@kff.org<\/a>,\t\t\t\t\t\t\t\t\t\t\t<a href=\"http:\/\/twitter.com\/dariustahir\" target=\"_blank\" rel=\"noopener\"><br \/>\n\t\t\t\t\t\t\t@dariustahir<\/a>\n\t\t\t\t\t\t\t\t\t<\/p>\n<\/aside>\n<section class=\"block--category-tag-list \">\n<div class=\"category-tag-list__content-wrapper\">\n<h3 class=\"block--category-tag-list__title\">\n\t\t\t\tRelated Topics\t\t\t<\/h3>\n<p>\t\t\t\t<a class=\"category-tag-list__contact-link\" href=\"https:\/\/kffhealthnews.org\/contact-us\/\" target=\"_blank\" rel=\"noopener\"><br \/>\n\t\t\tContact Us\t\t<\/a><br \/>\n\t\t<a class=\"category-tag-list__tip-link\" href=\"https:\/\/kffhealthnews.org\/tips\/\" target=\"_blank\" rel=\"noopener\"><br \/>\n\t\t\tSubmit a Story Tip\t\t<\/a>\n\t<\/div>\n<\/section><\/div>\n<p><script async src=\"\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><script async src=\"\/\/www.tiktok.com\/embed.js\"><\/script><br \/>\n<br \/><br \/>\n<br \/><a href=\"https:\/\/kffhealthnews.org\/news\/article\/tu-nuevo-terapeuta-conversador-indiscreto-y-dificilmente-humano\/\" target=\"_blank\" rel=\"noopener\">Source link <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vince Lahey, de Carefree, Arizona, utiliza con entusiasmo los chatbots. Desde los productos de grandes empresas tecnol\u00f3gicas hasta los m\u00e1s \u201csospechosos\u201d, le ofrecen \u201calguien con quien puedo compartir m\u00e1s secretos que con mi terapeuta\u201d. Le gustan especialmente las aplicaciones para recibir comentarios y apoyo, aunque a veces lo rega\u00f1an o hacen que se pelee con [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":34523,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[171],"tags":[],"class_list":["post-35054","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-health-conditions"],"jetpack_publicize_connections":[],"_links":{"self":[{"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/posts\/35054","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=35054"}],"version-history":[{"count":1,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/posts\/35054\/revisions"}],"predecessor-version":[{"id":35055,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/posts\/35054\/revisions\/35055"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=\/wp\/v2\/media\/34523"}],"wp:attachment":[{"href":"https:\/\/pickbydoc.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=35054"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=35054"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/pickbydoc.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=35054"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}