Aprendiendo con IA: Rol IA-Máster

⏱️ Tiempo de lectura: --
IA-MÁSTER · Semana 3

Investigando Claude:
¿qué es y cómo funciona?

Inteligencia Artificial · Educación Social · Reflexión ética
¡¡ Hola a todos y a todas !! 👋

Esta semana me han mandado investigar una herramienta de IA, y después de haber trabajado el mes pasado con ChatGPT, me apetecía probar algo diferente. Así que me puse a investigar Claude, que había visto mencionado varias veces pero nunca había explorado de verdad.

La verdad es que al principio pensaba que iba a ser "más de lo mismo". Spoiler: no lo es del todo. Pero tampoco es tan diferente como para no poder compararlo. Voy a intentar contaros lo que encontré siendo lo más honesta posible, porque hay cosas que me convencieron y otras que me dejaron dudas.

claude.ai
Pantalla principal de Claude — así se ve al abrirlo por primera vez
¿Qué es Claude exactamente?

Claude es un asistente de inteligencia artificial creado por una empresa llamada Anthropic. Lo que me pareció curioso al investigarlo es que Anthropic fue fundada en 2021 por personas que antes trabajaban en OpenAI, la misma empresa que creó ChatGPT. Básicamente, un grupo de investigadores se fue porque querían hacer las cosas de otra manera, con más foco en la seguridad. Si eso se nota en la práctica o es solo marketing es algo que intenté comprobar yo misma.

Hay varias versiones de Claude, pero para este trabajo he usado la versión gratuita disponible en claude.ai. No tengo acceso a la versión de pago, así que todo lo que cuento aquí es desde esa experiencia más limitada, que creo que es también la más realista para la mayoría de nosotras.

Una de las primeras cosas que me sorprendió es que cuando le haces una pregunta, no siempre te da la respuesta más corta posible. A veces hace preguntas de vuelta, o te dice "depende de lo que quieras conseguir". Al principio pensé que era un poco pesado, pero luego entendí que eso es lo que lo diferencia: intenta entender el contexto antes de responder. Para cosas del ámbito social, donde el contexto lo es todo, eso tiene sentido.

¿Para qué lo puedo usar en Educación Social?

Esta es la parte que más me interesaba investigar. Porque está muy bien que una IA sea lista, pero si no me sirve para lo que estudio... pues poco importa. Así que le fui haciendo preguntas del ámbito y esto fue lo que encontré:

📋
Preparar intervenciones y proyectos sociales Le pedí que me ayudara a pensar un proyecto de intervención con adolescentes en riesgo de exclusión. No solo me dio un esquema, sino que fue sugiriendo preguntas que yo no me había planteado: ¿cuál es el objetivo real? ¿a qué institución va dirigido? ¿qué indicadores mediría el éxito? Me ayudó a pensar, no a copiar.
📖
Entender conceptos teóricos difíciles A veces en clase hay conceptos que no me quedan del todo claros y me da vergüenza preguntar por segunda vez. Con Claude puedo preguntarle cuantas veces quiera y de formas diferentes hasta que lo entienda. Le dije "explícame la exclusión social como si tuviera 14 años" y lo hizo perfectamente.
🗣️
Simular conversaciones difíciles Esto me pareció lo más original. Le pedí que hiciera de persona mayor que se niega a pedir ayuda social porque siente que es una carga. Y luego practiqué cómo responderle yo. No es lo mismo que hacerlo en prácticas reales, pero como ensayo previo tiene mucho potencial.
✍️
Ayuda para estructurar textos y trabajos No para que te los escriba él solo, que eso sería trampa y además se nota bastante. Sino para decirle "tengo estas ideas, ¿cómo las organizo?" o "¿este párrafo se entiende bien?" Ese tipo de apoyo sí que me parece legítimo y útil.
claude.ai
¿Cómo podría usarse la IA en intervención con jóvenes en exclusión social?
La IA puede ser útil en este contexto de varias formas, aunque siempre como apoyo al trabajo humano, no como sustituto.

Algunas posibilidades concretas:
  • Detección temprana: sistemas que cruzan datos (absentismo, situación familiar, informes escolares) para identificar situaciones de riesgo antes de que se agraven.
  • Recursos accesibles: chatbots que orienten a jóvenes hacia recursos sociales en un lenguaje cercano, sin que tengan que pasar por adultos intermediarios.
  • Formación del educador: herramientas como esta para simular situaciones difíciles y practicar respuestas antes de afrontarlas en contexto real.
Ahora bien, hay que tener cuidado con un punto importante: muchos de estos jóvenes están precisamente en la brecha digital, sin dispositivos ni conexión. Usar IA para diseñar intervenciones dirigidas a ellos sin tenerlos en cuenta sería una contradicción bastante seria.
Captura real de mi conversación con Claude explorando aplicaciones en Educación Social
Un ejemplo real, paso a paso

Para esta investigación no quería quedarme solo en lo teórico, así que preparé una consulta concreta y fui siguiendo el proceso. Esto fue lo que hice:

1
Le pregunté directamente sobre un problema real
"¿Qué puedo hacer como educadora social si trabajo con una familia en situación de pobreza energética y la madre tiene miedo de pedir ayuda por vergüenza?"
2
Me dio un enfoque bastante completo
Habló de crear un vínculo de confianza antes de proponer recursos, de identificar si el miedo tiene que ver con experiencias previas negativas con los servicios sociales, y me sugirió trabajar desde sus propias fortalezas en vez de desde la carencia.
3
Le pedí que profundizara en algo concreto
"¿Qué marcos teóricos sustentan ese enfoque basado en fortalezas?" Me habló del modelo de resiliencia y del enfoque centrado en la persona. Cosas que habíamos visto en clase, pero explicadas de otra manera y relacionadas entre sí.
4
Lo usé de base para mis apuntes
No copié la respuesta directamente. Pero me ayudó a organizar mis ideas y a saber qué términos buscar después en fuentes académicas. Eso es exactamente como me parece correcto usarlo.
claude.ai
¿Qué marcos teóricos sustentan el enfoque basado en fortalezas en intervención social?
El enfoque basado en fortalezas tiene raíces en varias corrientes teóricas que se desarrollaron principalmente desde los años 80-90:

1. Teoría de la resiliencia — parte de la idea de que las personas tienen capacidad innata para sobreponerse a situaciones adversas si se activan los factores protectores adecuados (Rutter, Cyrulnik).

2. Enfoque centrado en la persona (Carl Rogers) — defiende que el rol del profesional no es "arreglar" a la persona sino acompañar su propio proceso de cambio desde sus recursos.

3. Modelo de empoderamiento — busca que las personas recuperen el control sobre su propia vida, especialmente en contextos de exclusión donde ese control se ha perdido.

Los tres comparten una idea clave: la intervención debe partir de lo que la persona ya tiene, no solo de lo que le falta.
Parte del hilo de conversación donde exploré la base teórica de la respuesta anterior
¿En qué se diferencia de ChatGPT?

Esta es la pregunta que más me hacía mientras investigaba, porque el mes pasado hice exactamente esto mismo pero con ChatGPT. Y la conclusión es que son más parecidos de lo que parece, pero con algunas diferencias que en la práctica sí se notan.

ChatGPT

  • Conocimiento actualizado con búsqueda en internet (en la versión gratuita ya incluye esto)
  • Responde más rápido y de forma más directa, sin tantas preguntas
  • Más herramientas extras: genera imágenes, analiza archivos, crea gráficos
  • Más conocido, hay más tutoriales y recursos para aprender a usarlo
  • A veces responde lo que cree que quieres oír, en vez de lo más útil

Claude

  • Sin búsqueda en internet en la versión gratuita, lo cual es una limitación real
  • Respuestas más largas y razonadas, se nota que intenta explicar el porqué
  • Admite cuando no sabe algo con más frecuencia, en vez de inventárselo
  • Mejor para conversaciones largas donde el contexto importa
  • Se nota más orientado al diálogo, hace preguntas de vuelta
Mi conclusión honesta: ninguno es mejor que el otro en todo. Depende de para qué lo uses. Si necesitas información muy actualizada, ChatGPT. Si necesitas pensar algo en profundidad o estructurar ideas, Claude. Para Educación Social, los dos pueden ser útiles si se usan bien.
Lo que no me convence del todo (reflexión ética)

Aquí quiero ser honesta, porque creo que en nuestro campo hay que pensar estas cosas. No todo lo que brilla es oro y con la IA pasa un poco igual.

Esto se llama "alucinación" en el mundo de la IA y es un problema serio. Claude puede darte un dato que suene perfectamente real pero que sea incorrecto. No lo hace con mala intención, simplemente no sabe lo que no sabe. Por eso hay que verificar siempre, especialmente si vas a usar esa información en un trabajo o en una intervención real con personas.
Si en el futuro trabajo con personas vulnerables, jamás debería incluir datos reales de ellas en una conversación con Claude. Los términos de uso de estas plataformas permiten que las conversaciones se usen para mejorar el modelo. Es un límite ético fundamental que en Educación Social no podemos ignorar, porque manejamos información muy sensible.
La versión gratuita de Claude tiene límites. Las funciones más potentes requieren suscripción de pago. Y eso me genera una contradicción: estamos aprendiendo a usar estas herramientas para trabajar con personas en situación de exclusión... pero muchas de esas personas no van a tener acceso a ellas. No creo que eso signifique que no debamos usarlas, pero sí que hay que tenerlo presente.
Si cada vez que tengo que resolver algo difícil le pregunto a Claude, ¿estoy desarrollando yo ese pensamiento crítico? Es una pregunta que me hago en serio. Creo que la clave está en usarlo para aprender más, no para evitar pensar. Como herramienta de apoyo sí. Como sustituto del razonamiento propio, no.
claude.ai
¿Cuáles son tus limitaciones éticas más importantes para alguien que estudia Educación Social?
Es una pregunta importante y me alegra que la hagas. Siendo directo:

1. No tengo información en tiempo real. No conozco las últimas leyes, los recursos actualizados de tu comunidad ni los cambios recientes en política social. Para intervenciones reales, eso es un problema serio que debes compensar con fuentes externas.

2. Puedo generar respuestas plausibles pero incorrectas. Si te digo que existe un recurso o un programa social específico, verifica que realmente existe antes de usarlo.

3. No tengo contexto local. Lo que funciona en una ciudad puede no funcionar en un pueblo rural. No conozco las particularidades de tu territorio.

4. Nunca uses mis respuestas con datos reales de personas usuarias. Todo lo que escribes aquí podría usarse para mejorar el modelo. La confidencialidad en tu campo no es opcional.

Dicho esto, creo que puedo ser útil si me usas como punto de partida para pensar, no como fuente de verdad.
Le pregunté directamente sobre sus limitaciones. Esto fue lo que me respondió.
¿Me ha convencido?

Sí, bastante. Pero no de una forma ciega. Me ha convencido como herramienta de apoyo, para pensar, para practicar, para entender mejor las cosas. Comparado con ChatGPT, lo veo más orientado a la conversación y al razonamiento, pero menos potente si necesitas información muy actualizada.

Lo que no puedo hacer es depender de ella para sustituir lo que se supone que tengo que aprender a hacer yo: escuchar, observar, conectar con las personas, tomar decisiones en situaciones complejas. Eso ninguna IA lo va a hacer por mí. Y creo que eso está bien así.

¿Y tú, qué opinas?

¿Cómo ves el uso de la IA en nuestra profesión?

Comentarios

También te puede gustar