Artículos de la literatura de trabajo

Filtra por categoría, año, tipo de fuente y texto libre. La lista está ordenada por año (más reciente primero).

Mostrando 241 artículos

N.241

AI-exhibited Personality Traits Can Shape Human Self-concept through Conversations

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Jingshu Li, Tianqi Song, Nattapat Boonprakong, Zicheng Zhu, Yitian Yang, Yi-Chieh Lee

Abstract: Este trabajo, "AI-exhibited Personality Traits Can Shape Human Self-concept through Conversations", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "AI-exhibited Personality Traits Can Shape Human Self-concept through Conversations", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales...

N.240

Automatic Item Generation for Personality Situational Judgment Tests with Large Language Models

Elsevier 2026

Línea: Evaluación y validación psicométrica

Autores: Chang-Jin Li, Jiyuan Zhang, Yun Tang, Jian Li

Abstract: Este trabajo, "Automatic Item Generation for Personality Situational Judgment Tests with Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este estudio aborda la generación automática de ítems para pruebas situacionales de personalidad con modelos de lenguaje, un proceso que tradicionalmente requiere mucho tiempo y fuerte dependencia de expertos humanos. Además, contextualiza el aporte al precisar que El trabajo propone un marco estructurado y reutilizable para crear ítems de SJT orientados a rasgos de personalidad, y lo evalúa con GPT-4 y ChatGPT-5 en varios experimentos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas con...

N.239

Beyond Fixed Psychological Personas: State Beats Trait, but Language Models are State-Blind

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Tamunotonye Harry, Ivoline Ngong, Chima Nweke, Yuanyuan Feng, Joseph Near

Abstract: Este trabajo, "Beyond Fixed Psychological Personas: State Beats Trait, but Language Models are State-Blind", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Beyond Fixed Psychological Personas: State Beats Trait, but Language Models are State-Blind", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas convers...

N.238

Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Tianyu Zhao, Siqi Li, Yasser Shoukry, Salma Elmalaki

Abstract: Este trabajo, "Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Can LLMs Discern the Traits Influencing Your Preferences? Además, contextualiza el aporte al precisar que Evaluating Personality-Driven Preference Alignment in LLMs", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio com...

N.237

Can LLMs Truly Embody Human Personality? Analyzing AI and Human Behavior Alignment in Dispute Resolution

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Deuksin Kwon, Kaleen Shrestha, Bin Han, Spencer Lin, James Hale, Jonathan Gratch, Maja Matarić, Gale M. Lucas

Abstract: Este trabajo, "Can LLMs Truly Embody Human Personality? Analyzing AI and Human Behavior Alignment in Dispute Resolution", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Can LLMs Truly Embody Human Personality? Además, contextualiza el aporte al precisar que Analyzing AI and Human Behavior Alignment in Dispute Resolution", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia emp...

N.236

Character as a Latent Variable in Large Language Models: A Mechanistic Account of Emergent Misalignment and Conditional Safety Failures

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Yanghao Su, Wenbo Zhou, Tianwei Zhang, Han Qiu, Weiming Zhang, Nenghai Yu, Jie Zhang

Abstract: Este trabajo, "Character as a Latent Variable in Large Language Models: A Mechanistic Account of Emergent Misalignment and Conditional Safety Failures", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que emergent Misalignment refers to a failure mode in which fine-tuning large language models (LLMs) on narrowly scoped data induces broadly misaligned behavior. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y de...

N.235

Culturally Grounded Personas in Large Language Models: Characterization and Alignment with Socio-Psychological Value Frameworks

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Candida M. Greco, Lucio La Cava, Andrea Tagarelli

Abstract: Este trabajo, "Culturally Grounded Personas in Large Language Models: Characterization and Alignment with Socio-Psychological Value Frameworks", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Culturally Grounded Personas in Large Language Models: Characterization and Alignment with Socio-Psychological Value Frameworks", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de d...

N.234

Effects of personality steering on cooperative behavior in Large Language Model agents

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Mizuki Sakai, Mizuki Yokoyama, Wakaba Tateishi, Genki Ichinose

Abstract: Este trabajo, "Effects of personality steering on cooperative behavior in Large Language Model agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Effects of personality steering on cooperative behavior in Large Language Model agents", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales b...

N.233

ES-MemEval: Benchmarking Conversational Agents on Personalized Long-Term Emotional Support

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Tiantian Chen, Jiaqi Lu, Ying Shen, Lin Zhang

Abstract: Este trabajo, "ES-MemEval: Benchmarking Conversational Agents on Personalized Long-Term Emotional Support", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de aplicaciones, sesgos y consecuencias sociales. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que a...

N.232

From Classification to Ranking: Enhancing LLM Reasoning Capabilities for MBTI Personality Detection

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Yuan Cao, Feixiang Liu, Xinyue Wang, Yihan Zhu, Hui Xu, Zheng Wang, Qiang Qiu

Abstract: Este trabajo, "From Classification to Ranking: Enhancing LLM Reasoning Capabilities for MBTI Personality Detection", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "From Classification to Ranking: Enhancing LLM Reasoning Capabilities for MBTI Personality Detection", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de c...

N.231

HER: Human-like Reasoning and Reinforcement Learning for LLM Role-playing

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Chengyu Du, Xintao Wang, Aili Chen, Weiyuan Li, Rui Xu, Junteng Liu, Zishan Huang, Rong Tian, Zijun Sun, Yuhao Li, Liheng Feng, Deming Ding, Pengyu Zhao, Yanghua Xiao

Abstract: Este trabajo, "HER: Human-like Reasoning and Reinforcement Learning for LLM Role-playing", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que lLM role-playing, i.e., using LLMs to simulate specific personas, has emerged as a key capability in various applications, such as companionship, content creation, and digital games. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretació...

N.230

Large Language Models as Simulative Agents for Neurodivergent Adult Psychometric Profiles

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Francesco Chiappone, Davide Marocco, Nicola Milano

Abstract: Este trabajo, "Large Language Models as Simulative Agents for Neurodivergent Adult Psychometric Profiles", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Large Language Models as Simulative Agents for Neurodivergent Adult Psychometric Profiles", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales baj...

N.229

Large Language Models Polarize Ideologically but Moderate Affectively in Online Political Discourse

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Gavin Wang, Srinaath Anbudurai, Oliver Sun, Xitong Li, Lynn Wu

Abstract: Este trabajo, "Large Language Models Polarize Ideologically but Moderate Affectively in Online Political Discourse", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina large language models polarize ideologically but moderate affectively in online political discourse dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que the emergence of large language models (LLMs) is reshaping how people engage in political discourse online. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello,...

N.228

Letting Tutor Personas "Speak Up" for LLMs: Learning Steering Vectors from Dialogue via Preference Optimization

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Jaewook Lee, Alexander Scarlatos, Simon Woodhead, Andrew Lan

Abstract: Este trabajo, "Letting Tutor Personas "Speak Up" for LLMs: Learning Steering Vectors from Dialogue via Preference Optimization", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que with the emergence of large language models (LLMs) as a powerful class of generative artificial intelligence (AI), their use in tutoring has become increasingly prominent. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y desp...

N.227

Multi-Persona Thinking for Bias Mitigation in Large Language Models

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yuxing Chen, Guoqing Luo, Zijun Wu, Lili Mou

Abstract: Este trabajo, "Multi-Persona Thinking for Bias Mitigation in Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Multi-Persona Thinking for Bias Mitigation in Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Po...

N.226

On the Identifiability of Steering Vectors in Large Language Models

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Sohan Venkatesh, Ashish Mahendran Kurapath

Abstract: Este trabajo, "On the Identifiability of Steering Vectors in Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que activation steering methods, such as persona vectors, are widely used to control large language model behavior and increasingly interpreted as revealing meaningful internal representations. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretaci...

N.225

PATS: Personality-Aware Teaching Strategies with Large Language Model Tutors

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Donya Rooein, Sankalan Pal Chowdhury, Mariia Eremeeva, Yuan Qin, Debora Nozza, Mrinmaya Sachan, Dirk Hovy

Abstract: Este trabajo, "PATS: Personality-Aware Teaching Strategies with Large Language Model Tutors", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "PATS: Personality-Aware Teaching Strategies with Large Language Model Tutors", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicomét...

N.224

Persona Prompting as a Lens on LLM Social Reasoning

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Jing Yang, Moritz Hechtbauer, Elisabeth Khalilov, Evelyn Luise Brinkmann, Vera Schmitt, Nils Feldhus

Abstract: Este trabajo, "Persona Prompting as a Lens on LLM Social Reasoning", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Persona Prompting as a Lens on LLM Social Reasoning", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este...

N.223

PersonaLedger: Generating Realistic Financial Transactions with Persona Conditioned LLMs and Rule Grounded Feedback

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Dehao Yuan, Tyler Farnan, Stefan Tesliuc, Doron L. Bergman, Yulun Wu, Xiaoyu Liu, Minghui Liu, James Montgomery, Nam H Nguyen, C. Bayan Bruss, Furong Huang

Abstract: Este trabajo, "PersonaLedger: Generating Realistic Financial Transactions with Persona Conditioned LLMs and Rule Grounded Feedback", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que strict privacy regulations limit access to real transaction data, slowing open research in financial AI. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo...

N.222

Personality as Relational Infrastructure: User Perceptions of Personality-Trait-Infused LLM Messaging

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Dominik P. Hofer, David Haag, Rania Islambouli, Jan D. Smeddinck

Abstract: Este trabajo, "Personality as Relational Infrastructure: User Perceptions of Personality-Trait-Infused LLM Messaging", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Personality as Relational Infrastructure: User Perceptions of Personality-Trait-Infused LLM Messaging", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación...

N.221

Personality Expression Across Contexts: Linguistic and Behavioral Variation in LLM Agents

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Bin Han, Deuksin Kwon, Jonathan Gratch

Abstract: Este trabajo, "Personality Expression Across Contexts: Linguistic and Behavioral Variation in LLM Agents", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Personality Expression Across Contexts: Linguistic and Behavioral Variation in LLM Agents", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacio...

N.220

Political Alignment in Large Language Models: A Multidimensional Audit of Psychometric Identity and Behavioral Bias

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Adib Sakhawat, Tahsin Islam, Takia Farhin, Syed Rifat Raiyan, Hasan Mahmud, Md Kamrul Hasan

Abstract: Este trabajo, "Political Alignment in Large Language Models: A Multidimensional Audit of Psychometric Identity and Behavioral Bias", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Political Alignment in Large Language Models: A Multidimensional Audit of Psychometric Identity and Behavioral Bias", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y desp...

N.219

PTCBENCH: Benchmarking Contextual Stability of Personality Traits in LLM Systems

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Jiongchi Yu, Yuhan Ma, Xiaoyu Zhang, Junjie Wang, Qiang Hu, Chao Shen, Xiaofei Xie

Abstract: Este trabajo, "PTCBENCH: Benchmarking Contextual Stability of Personality Traits in LLM Systems", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "PTCBENCH: Benchmarking Contextual Stability of Personality Traits in LLM Systems", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométr...

N.218

Split Personality Training: Revealing Latent Knowledge Through Alternate Personalities

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Florian Dietz, William Wale, Oscar Gilg, Robert McCarthy, Felix Michalak, Gustavo Ewbank Rodrigues Danon, Miguelito de Guzman, Dietrich Klakow

Abstract: Este trabajo, "Split Personality Training: Revealing Latent Knowledge Through Alternate Personalities", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre...

N.217

Stable and Explainable Personality Trait Evaluation in Large Language Models with Internal Activations

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Xiaoxu Ma, Xiangbo Zhang, Zhenyu Weng

Abstract: Este trabajo, "Stable and Explainable Personality Trait Evaluation in Large Language Models with Internal Activations", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Stable and Explainable Personality Trait Evaluation in Large Language Models with Internal Activations", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de cond...

N.216

Stable Personas: Dual-Assessment of Temporal Stability in LLM-Based Human Simulation

arXiv 2026

Línea: Evaluación y validación psicométrica

Autores: Jana Gonnermann-Müller, Jennifer Haase, Nicolas Leins, Thomas Kosch, Sebastian Pokutta

Abstract: Este trabajo, "Stable Personas: Dual-Assessment of Temporal Stability in LLM-Based Human Simulation", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Stable Personas: Dual-Assessment of Temporal Stability in LLM-Based Human Simulation", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo...

N.215

Structured Personality Control and Adaptation for LLM Agents

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Jinpeng Wang, Xinyu Jia, Wei Wei Heng, Yuquan Li, Binbin Shi, Qianlei Chen, Guannan Chen, Junxia Zhang, Yuyu Yin

Abstract: Este trabajo, "Structured Personality Control and Adaptation for LLM Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Structured Personality Control and Adaptation for LLM Agents", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se i...

N.214

Styles + Persona-plug = Customized LLMs

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Yutong Song, Jiang Wu, Shaofan Yuan, Chengze Shen, Jian Wang, Amir Rahmani, Nikil Dutt, Yu Wang

Abstract: Este trabajo, "Styles + Persona-plug = Customized LLMs", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que we discover a previously overlooked challenge in personalized text generation: personalization methods are increasingly applied under explicit style instructions, yet their behavior under such constraints remains poorly understood. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo l...

N.213

The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Tassallah Abdullahi, Shrestha Ghosh, Hamish S Fraser, Daniel León Tramontini, Adeel Abbasi, Ghada Bourjeily, Carsten Eickhoff, Ritambhara Singh

Abstract: Este trabajo, "The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "The Persona Paradox: Medical Personas as Behavioral Priors in Clinical Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversa...

N.212

The Personality Trap: How LLMs Embed Bias When Generating Human-Like Personas

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Jacopo Amidei, Gregorio Ferreira, Mario Muñoz Serrano, Rubén Nieto, Andreas Kaltenbrunner

Abstract: Este trabajo, "The Personality Trap: How LLMs Embed Bias When Generating Human-Like Personas", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "The Personality Trap: How LLMs Embed Bias When Generating Human-Like Personas", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marc...

N.211

Uncertainty and Fairness Awareness in LLM-Based Recommendation Systems

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Chandan Kumar Sah, Xiaoli Lian, Li Zhang, Tony Xu, Syed Saqib Hussain Shah

Abstract: Este trabajo, "Uncertainty and Fairness Awareness in LLM-Based Recommendation Systems", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina uncertainty and fairness awareness in llm-based recommendation systems dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large language models (LLMs) enable powerful zero-shot recommendations by leveraging broad contextual knowledge, yet predictive uncertainty and embedded biases threaten reliability and fairness. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo ma...

N.210

When LLMs Imagine People: A Human-Centered Persona Brainstorm Audit for Bias and Fairness in Creative Applications

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Hongliu Cao, Eoin Thomas, Rodrigo Acuna Agost

Abstract: Este trabajo, "When LLMs Imagine People: A Human-Centered Persona Brainstorm Audit for Bias and Fairness in Creative Applications", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "When LLMs Imagine People: A Human-Centered Persona Brainstorm Audit for Bias and Fairness in Creative Applications", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despli...

N.209

When Personas Override Payoffs: Role Identity Bias in Multi-Agent LLM Decision-Making

arXiv 2026

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Viswonathan Manoranjan, Snehalkumar `Neil' S. Gaikwad

Abstract: Este trabajo, "When Personas Override Payoffs: Role Identity Bias in Multi-Agent LLM Decision-Making", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "When Personas Override Payoffs: Role Identity Bias in Multi-Agent LLM Decision-Making", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversaci...

N.208

Your Language Model Secretly Contains Personality Subnetworks

arXiv 2026

Línea: Inducción y control de personalidad

Autores: Ruimeng Ye, Zihan Wang, Zinan Ling, Yang Xiao, Manling Li, Xiaolong Ma, Bo Hui

Abstract: Este trabajo, "Your Language Model Secretly Contains Personality Subnetworks", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométr...

N.207

“I understand your perspective”: LLM Persuasion through the Lens of Communicative Action Theory

ACL Anthology 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Esra Dönmez, Agnieszka Faleńska

Abstract: Este trabajo, "“I understand your perspective”: LLM Persuasion through the Lens of Communicative Action Theory", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina “i understand your perspective”: llm persuasion through the lens of communicative action theory dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que this paper studies social, bias, and behavioral effects related to synthetic personality and role conditioning in large language models, with emphasis on measurable impacts in realistic interaction settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, inc...

N.206

“I’ve never seen a glass ceiling better represented”: Bias and gendering in LLM-generated synthetic personas from a participatory design perspective

Elsevier 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Helena A. Haxvig, Vincenzo D’Andrea, Maurizio Teli

Abstract: Este trabajo, "“I’ve never seen a glass ceiling better represented”: Bias and gendering in LLM-generated synthetic personas from a participatory design perspective", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina “i’ve never seen a glass ceiling better represented”: bias and gendering in llm-generated synthetic personas from a participatory design perspective dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que this paper studies social, bias, and behavioral effects related to synthetic personality and role conditioning in large language models, with emphasis on measurable impacts in realistic interaction settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introducto...

N.205

A Comparative Study of Large Language Models and Human Personality Traits

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Wang Jiaqi, Wang bo, Guo fa, Cheng cheng, Yang li

Abstract: Este trabajo, "A Comparative Study of Large Language Models and Human Personality Traits", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "A Comparative Study of Large Language Models and Human Personality Traits", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos....

N.204

A framework for the initial phases of personality test development using large language models and artificial personas

Elsevier 2025

Línea: Evaluación y validación psicométrica

Autores: Patrick M. Markey, Hanna Campbell, Samantha Goldman

Abstract: Este trabajo, "A framework for the initial phases of personality test development using large language models and artificial personas", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se exploran aplicaciones de modelos de lenguaje en la construcción de inventarios de personalidad en fases iniciales, presentando una metodología para evaluación eficiente de relevancia de ítems a constructos psicológicos. Además, contextualiza el aporte al precisar que El Estudio 1 empleó personas artificiales para evaluar ítems de inventarios de personalidad; el Estudio 2 validó las escalas resultantes con 449 participantes humanos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpreta...

N.203

A psychometric framework for evaluating and shaping personality traits in large language models - Nature Machine Intelligence

Nature 2025

Línea: Evaluación y validación psicométrica

Autores: Gregory Serapio-García, Mustafa Safdari, Clément Crepy, Luning Sun, Stephen Fitz, Peter Romero, Marwa Abdulhai, Aleksandra Faust, Maja Matarić

Abstract: Este trabajo, "A psychometric framework for evaluating and shaping personality traits in large language models - Nature Machine Intelligence", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de evaluación y validación psicométrica. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidenc...

N.202

A-MEM: Agentic Memory for LLM Agents

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Wujiang Xu, Zujie Liang, Kai Mei, Hang Gao, Juntao Tan, Yongfeng Zhang

Abstract: Este trabajo, "A-MEM: Agentic Memory for LLM Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Esta investigación presenta A-MEM, un marco que permite a los agentes LLM desarrollar y gestionar memorias episódicas mediante razonamiento metacognitivo. Además, contextualiza el aporte al precisar que El sistema permite que los agentes decidan autónomamente qué experiencias almacenar, cómo organizar memorias y cuándo recuperarlas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teór...

N.201

Actions Speak Louder than Words: Agent Decisions Reveal Implicit Biases in Language Models

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yuxuan Li, Hirokazu Shirado, Sauvik Das

Abstract: Este trabajo, "Actions Speak Louder than Words: Agent Decisions Reveal Implicit Biases in Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina actions speak louder than words: agent decisions reveal implicit biases in language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que while advances in fairness and alignment have helped mitigate overt biases exhibited by large language models (LLMs) when explicitly prompted, we hypothesize that these models may still exhibit implicit biases when simulating human behavior. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, eval...

N.200

Activation-Space Personality Steering: Hybrid Layer Selection for Stable Trait Control in LLMs

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Pranav Bhandari, Nicolas Fay, Sanjeevan Selvaganapathy, Amitava Datta, Usman Naseem, Mehwish Nasim

Abstract: Este trabajo, "Activation-Space Personality Steering: Hybrid Layer Selection for Stable Trait Control in LLMs", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Activation-Space Personality Steering: Hybrid Layer Selection for Stable Trait Control in LLMs", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas co...

N.199

Adaptive Testing for LLM Evaluation: A Psychometric Alternative to Static Benchmarks

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Peiyu Li, Xiuxiu Tang, Si Chen, Ying Cheng, Ronald Metoyer, Ting Hua, Nitesh V. Chawla

Abstract: Este trabajo, "Adaptive Testing for LLM Evaluation: A Psychometric Alternative to Static Benchmarks", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Adaptive Testing for LLM Evaluation: A Psychometric Alternative to Static Benchmarks", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos p...

N.198

AgentMisalignment: Measuring the Propensity for Misaligned Behaviour in LLM-Based Agents

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Ajay Naik, Patrick Quinn, Guillermo Bosch, Emma Gouné, Francisco Javier Campos Zabala, Jason R. Brown, Edward Young

Abstract: Este trabajo, "AgentMisalignment: Measuring the Propensity for Misaligned Behaviour in LLM-Based Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que as Large Language Model (LLM) agents become more widespread, associated misalignment risks increase. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello...

N.197

AI, social desirability, and personality assessments: Impression management in large language models

Elsevier 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Luke Treglown, Adrian Furnham

Abstract: Este trabajo, "AI, social desirability, and personality assessments: Impression management in large language models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina ai, social desirability, and personality assessments: impression management in large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que this paper studies social, bias, and behavioral effects related to synthetic personality and role conditioning in large language models, with emphasis on measurable impacts in realistic interaction settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despl...

N.196

AIPsychoBench: Understanding the Psychometric Differences between LLMs and Humans

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Wei Xie, Shuoyoucheng Ma, Zhenhua Wang, Enze Wang, Kai Chen, Xiaobing Sun, Baosheng Wang

Abstract: Este trabajo, "AIPsychoBench: Understanding the Psychometric Differences between LLMs and Humans", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "AIPsychoBench: Understanding the Psychometric Differences between LLMs and Humans", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marco...

N.195

Aligning LLM agents with human learning and adjustment behavior: a dual agent approach

DOI 2025

Línea: Inducción y control de personalidad

Autores: Tianming Liu, Jirong Yang, Yafeng Yin, Manzi Li, Linghao Wang, Zheng Zhu

Abstract: Este trabajo, "Aligning LLM agents with human learning and adjustment behavior: a dual agent approach", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que effective modeling of how human travelers learn and adjust their travel behavior from interacting with transportation systems is critical for system assessment and planning. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpret...

N.194

Applying Psychometrics to Large Language Model Simulated Populations: Recreating the HEXACO Personality Inventory Experiment with Generative Agents

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Sarah Mercer, Daniel P. Martin, Phil Swatton

Abstract: Este trabajo, "Applying Psychometrics to Large Language Model Simulated Populations: Recreating the HEXACO Personality Inventory Experiment with Generative Agents", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora la validez de agentes basados en personas para representar poblaciones humanas recreando el experimento del inventario de personalidad HEXACO. Además, contextualiza el aporte al precisar que Los resultados revelan estructuras de personalidad coherentes recuperables desde respuestas de agentes, demostrando alineamiento parcial con el marco HEXACO. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psi...

N.193

Ask, Answer, and Detect: Role-Playing LLMs for Personality Detection with Question-Conditioned Mixture-of-Experts

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Yifan Lyu, Liang Zhang

Abstract: Este trabajo, "Ask, Answer, and Detect: Role-Playing LLMs for Personality Detection with Question-Conditioned Mixture-of-Experts", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Ask, Answer, and Detect: Role-Playing LLMs for Personality Detection with Question-Conditioned Mixture-of-Experts", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, inclu...

N.192

Automatic Scoring of an Open-Response Measure of Advanced Mind-Reading Using Large Language Models

ACL Anthology 2025

Línea: Evaluación y validación psicométrica

Autores: Yixiao Wang, Russel Dsouza, Robert Lee, Ian Apperly, Rory Devine, Sanne van der Kleij, Mark Lee

Abstract: Este trabajo, "Automatic Scoring of an Open-Response Measure of Advanced Mind-Reading Using Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para evaluación y validación psicométrica. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas...

N.191

Battling Misinformation: An Empirical Study on Adversarial Factuality in Open-Source Large Language Models

ACL Anthology 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Shahnewaz Karim Sakib, Anindya Bijoy Das, Shibbir Ahmed

Abstract: Este trabajo, "Battling Misinformation: An Empirical Study on Adversarial Factuality in Open-Source Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina battling misinformation: an empirical study on adversarial factuality in open-source large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que this paper studies social, bias, and behavioral effects related to synthetic personality and role conditioning in large language models, with emphasis on measurable impacts in realistic interaction settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evalua...

N.190

Behavioral Guardrails for Dynamic LLM Persona

MIT Press 2025

Línea: Inducción y control de personalidad

Autores: Ognjen Malkoc, Koyuki Abe, Kazuki Kitagawa, Mizuki Oka, Yuya Ishikawa

Abstract: Este trabajo, "Behavioral Guardrails for Dynamic LLM Persona", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que we demonstrate an automated instruction-tuning process using Low-Rank Adaptation (LoRA) Hu et al. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio...

N.189

Beyond Demographics: Enhancing Cultural Value Survey Simulation with Multi-Stage Personality-Driven Cognitive Reasoning

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Haijiang Liu, Qiyuan Li, Chao Gao, Yong Cao, Xiangyu Xu, Xun Wu, Daniel Hershcovich, Jinguang Gu

Abstract: Este trabajo, "Beyond Demographics: Enhancing Cultural Value Survey Simulation with Multi-Stage Personality-Driven Cognitive Reasoning", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para aplicaciones, sesgos y consecuencias sociales. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, in...

N.188

Beyond Self-Reports: Multi-Observer Agents for Personality Assessment in Large Language Models

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Yin Jou Huang, Rafik Hadfi

Abstract: Este trabajo, "Beyond Self-Reports: Multi-Observer Agents for Personality Assessment in Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un marco novedoso de multi-observador para evaluación de rasgos de personalidad en agentes de modelos de lenguaje de gran escala, basándose en métodos de informe de informantes de la psicología. Además, contextualiza el aporte al precisar que En lugar de autoevaluaciones, se emplean múltiples agentes observadores, cada uno configurado con contextos relacionales específicos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el...

N.187

BILLY: Steering Large Language Models via Merging Persona Vectors for Creative Generation

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Tzu‐Yi Pai, J Wang, Li-Chun Lu, Shaohua Sun, Hung-Yi Lee, Kai-Wei Chang

Abstract: Este trabajo, "BILLY: Steering Large Language Models via Merging Persona Vectors for Creative Generation", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que multi-LLM systems enhance the creativity of large language models by simulating human collective intelligence but suffer from significant drawbacks, such as high computational costs and inference latency. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y d...

N.186

Can LLMs Generate Behaviors for Embodied Virtual Agents Based on Personality Traits?

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Bin Han, Deuksin Kwon, Spencer Lin, Kaleen Shrestha, Jonathan Gratch

Abstract: Este trabajo, "Can LLMs Generate Behaviors for Embodied Virtual Agents Based on Personality Traits?", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un marco que emplea instrucciones de personalidad con modelos de lenguaje de gran escala para generar comportamientos verbales y no verbales en agentes virtuales basados en rasgos de personalidad. Además, contextualiza el aporte al precisar que Con enfoque en extraversión, el sistema fue evaluado en escenarios de negociación y rompehielos utilizando agentes introvertidos y extrovertidos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello,...

N.185

Can LLMs Ground when they (Don’t) Know: A Study on Direct and Loaded Political Questions

ACL Anthology 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Clara Lachenmaier, Judith Sieker, Sina Zarrieß

Abstract: Este trabajo, "Can LLMs Ground when they (Don’t) Know: A Study on Direct and Loaded Political Questions", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina can llms ground when they (don’t) know: a study on direct and loaded political questions dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que this paper studies social, bias, and behavioral effects related to synthetic personality and role conditioning in large language models, with emphasis on measurable impacts in realistic interaction settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la int...

N.184

Can LLMs Infer Personality from Real World Conversations?

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Jianfeng Zhu, Ruoming Jin, Karin G. Coifman

Abstract: Este trabajo, "Can LLMs Infer Personality from Real World Conversations?", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Can LLMs Infer Personality from Real World Conversations?", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorp...

N.183

CAPE: Context-Aware Personality Evaluation Framework for Large Language Models

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Jivnesh Sandhan, Fei Cheng, Tushar Sandhan, Yugo Murawaki

Abstract: Este trabajo, "CAPE: Context-Aware Personality Evaluation Framework for Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone el primer marco de Evaluación de Personalidad Sensible al Contexto (CAPE) para modelos de lenguaje, incorporando interacciones conversacionales previas. Además, contextualiza el aporte al precisar que Los experimentos a través de 7 modelos revelan que el historial conversacional incrementa la coherencia de respuestas mediante aprendizaje en contexto mientras induce simultáneamente desplazamientos de personalidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psic...

N.182

CFaiRLLM: Consumer Fairness Evaluation in Large-Language Model Recommender System

ACM 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yashar Deldjoo, Tommaso Di Noia

Abstract: Este trabajo, "CFaiRLLM: Consumer Fairness Evaluation in Large-Language Model Recommender System", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo presenta CFaiRLLM, un marco especializado para evaluar equidad del lado del consumidor en sistemas de recomendación basados en LLM que utilizan perfilado de personalidad. Además, contextualiza el aporte al precisar que Los autores argumentan que las métricas de equidad tradicionales fallan en capturar daños específicos a personalización basada en personalidad, como la explotación de rasgos de personalidad (por ejemplo, dirigirse a usuarios con alto neuroticismo con contenido inductor de ansiedad para aumentar compromiso). Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisi...

N.181

Chameleon LLMs: User Personas Influence Chatbot Personality Shifts

ACL Anthology 2025

Línea: Evaluación y validación psicométrica

Autores: Jane Xing, Tianyi Niu, Shashank Srivastava

Abstract: Este trabajo, "Chameleon LLMs: User Personas Influence Chatbot Personality Shifts", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de evaluación y validación psicométrica. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóri...

N.180

Character is Destiny: Can Persona-assigned Language Models Make Personal Choices?

ACL Anthology 2025

Línea: Inducción y control de personalidad

Autores: Rui Xu, Xintao Wang, Jiangjie Chen, Siyu Yuan, Xinfeng Yuan, Jiaqing Liang, Zulong Chen, Xiaoqingdong, Yanghua Xiao

Abstract: Este trabajo, "Character is Destiny: Can Persona-assigned Language Models Make Personal Choices?", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales b...

N.179

Comparing Human Expertise and Large Language Models Embeddings in Content Validity Assessment of Personality Tests

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Nicola Milano, Michela Ponticorvo, Davide Marocco

Abstract: Este trabajo, "Comparing Human Expertise and Large Language Models Embeddings in Content Validity Assessment of Personality Tests", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Comparing Human Expertise and Large Language Models Embeddings in Content Validity Assessment of Personality Tests", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, inc...

N.178

Confident, Calibrated, or Complicit: Probing the Trade-offs between Safety Alignment and Ideological Bias in Language Models in Detecting Hate Speech

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Sanjeeevan Selvaganapathy, Mehwish Nasim

Abstract: Este trabajo, "Confident, Calibrated, or Complicit: Probing the Trade-offs between Safety Alignment and Ideological Bias in Language Models in Detecting Hate Speech", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina confident, calibrated, or complicit: probing the trade-offs between safety alignment and ideological bias in language models in detecting hate speech dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que we investigate the efficacy of Large Language Models (LLMs) in detecting implicit and explicit hate speech, examining whether models with minimal safety alignment (uncensored) might provide more objective classification capabilities compared to their heavily-aligned (censored) counterparts. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configura...

N.177

Decoding Emergent Big Five Traits in Large Language Models: Temperature-Dependent Expression and Architectural Clustering

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Christos-Nikolaos Zacharopoulos, Revekka Kyriakoglou

Abstract: Este trabajo, "Decoding Emergent Big Five Traits in Large Language Models: Temperature-Dependent Expression and Architectural Clustering", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para evaluación y validación psicométrica. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la inte...

N.176

Destination (Un)Known: Auditing Bias and Fairness in LLM-Based Travel Recommendations

MDPI 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Hristo Andreev, Petros Kosmas, Antonios D. Livieratos, Antonis Theocharous, Anastasios Zopiatis

Abstract: Este trabajo, "Destination (Un)Known: Auditing Bias and Fairness in LLM-Based Travel Recommendations", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina destination (un)known: auditing bias and fairness in llm-based travel recommendations dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large language-model chatbots such as ChatGPT and DeepSeek are quickly gaining traction as an easy, first-stop tool for trip planning because they offer instant, conversational advice that once required sifting through multiple websites or guidebooks. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, eval...

N.175

Deterministic AI Agent Personality Expression through Standard Psychological Diagnostics

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: J. M. Diederik Kruijssen, Nicholas Emmons

Abstract: Este trabajo, "Deterministic AI Agent Personality Expression through Standard Psychological Diagnostics", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga si los sistemas de inteligencia artificial pueden expresar personalidades deterministas y coherentes cuando se instruyen mediante marcos psicológicos establecidos. Además, contextualiza el aporte al precisar que La investigación revela que modelos avanzados como GPT-4o y o1 logran la mayor precisión en evaluaciones Big Five y Myers-Briggs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositor...

N.174

Developing and Improving Personality Inventories Using Generative Artificial Intelligence: The Psychometric Properties of a Short HEXACO Scale Developed Using ChatGPT 4.0

Taylor & Francis 2025

Línea: Evaluación y validación psicométrica

Autores: Ard J. Barends, Reinout E. de Vries

Abstract: Este trabajo, "Developing and Improving Personality Inventories Using Generative Artificial Intelligence: The Psychometric Properties of a Short HEXACO Scale Developed Using ChatGPT 4.0", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se generó un inventario de personalidad HEXACO de 24 ítems utilizando ChatGPT 4.0, denominado inventario HEXACO ChatGPT (CHI). Además, contextualiza el aporte al precisar que Se investigó si ChatGPT podría modificar CHI para mejorar su consistencia interna o validez de contenido. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este r...

N.173

Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Hadi Hosseini, Samarth Khanna

Abstract: Este trabajo, "Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina distributive fairness in large language models: evaluating alignment with human values dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que the growing interest in employing large language models (LLMs) for decision-making in social and economic contexts has raised questions about their potential to function as agents in these domains. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de...

N.172

Do Large Language Models Have a Personality? A Psychometric Evaluation with Implications for Clinical Medicine and Mental Health AI

medRxiv 2025

Línea: Evaluación y validación psicométrica

Autores: Thomas F Heston, Justin Gillette

Abstract: Este trabajo, "Do Large Language Models Have a Personality? A Psychometric Evaluation with Implications for Clinical Medicine and Mental Health AI", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se caracterizaron perfiles de personalidad de cuatro modelos de lenguaje de gran escala líderes en 2024 utilizando dos marcos validados: Escalas de Tipo Junguiano Extendido Abierto y Prueba de Personalidad de los Cinco Grandes. Además, contextualiza el aporte al precisar que MANOVA reveló diferencias estadísticamente significativas entre modelos en rasgos de personalidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psic...

N.171

Do Psychometric Tests Work for Large Language Models? Evaluation of Tests on Sexism, Racism, and Morality

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Jana Jung, Marlene Lutz, Indira Sen, Markus Strohmaier

Abstract: Este trabajo, "Do Psychometric Tests Work for Large Language Models? Evaluation of Tests on Sexism, Racism, and Morality", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Do Psychometric Tests Work for Large Language Models? Además, contextualiza el aporte al precisar que Evaluation of Tests on Sexism, Racism, and Morality", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica q...

N.170

Enhancing Persona Consistency for LLMs' Role-Playing using Persona-Aware Contrastive Learning

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Ke Ji, Yixin Lian, Linxu Li, Jingsheng Gao, Weiyuan Li, Bin Dai

Abstract: Este trabajo, "Enhancing Persona Consistency for LLMs' Role-Playing using Persona-Aware Contrastive Learning", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conver...

N.169

Established Psychometric vs. Ecologically Valid Questionnaires: Rethinking Psychological Assessments in Large Language Models

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Dongmin Choi, Woojung Song, Jongwook Han, Eun-Ju Lee, Yohan Jo

Abstract: Este trabajo, "Established Psychometric vs. Ecologically Valid Questionnaires: Rethinking Psychological Assessments in Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Established Psychometric vs. Además, contextualiza el aporte al precisar que Ecologically Valid Questionnaires: Rethinking Psychological Assessments in Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en es...

N.168

Evaluating LLM Alignment on Personality Inference from Real-World Interview Data

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Jianfeng Zhu, Julina Maharjan, Xinyu Li, Karin G. Coifman, Ruoming Jin

Abstract: Este trabajo, "Evaluating LLM Alignment on Personality Inference from Real-World Interview Data", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce una batería de evaluación que comprende transcripciones de entrevistas semiestructuradas pareadas con puntuaciones validadas de rasgos Big Five continuos. Además, contextualiza el aporte al precisar que La evaluación sistemática examina el desempeño de modelos a través de instrucción sin entrenamiento previo, ajuste fino y metodologías de regresión. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este reposit...

N.167

Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Pranav Bhandari, Usman Naseem, Amitava Datta, Nicolas Fay, Mehwish Nasim

Abstract: Este trabajo, "Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas co...

N.166

Exploring the Impact of Language Switching on Personality Traits in LLMs

ACL Anthology 2025

Línea: Evaluación y validación psicométrica

Autores: Jacopo Amidei, Jose Gregorio Ferreira De Sá, Rubén Nieto Luna, Andreas Kaltenbrunner

Abstract: Este trabajo, "Exploring the Impact of Language Switching on Personality Traits in LLMs", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga hasta qué punto los modelos de lenguaje de gran escala se alinean con humanos cuando los cambios de personalidad se asocian con cambios de idioma. Además, contextualiza el aporte al precisar que Basándose en tres experimentos enfocados en GPT-4o y el Cuestionario de Personalidad de Eysenck-Revisado (EPQR-A), los resultados iniciales revelan variación débil pero significativa en la personalidad de GPT-4o entre idiomas, indicando que algunas variaciones provienen de efectos de cambio de idioma en lugar de traducción. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño,...

N.165

Exploring the Impact of Personality Traits on LLM Bias and Toxicity

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Shuo Wang, Renhao Li, Xi Chen, Yulin Yuan, Derek F. Wong, Min Yang

Abstract: Este trabajo, "Exploring the Impact of Personality Traits on LLM Bias and Toxicity", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La asignación de rasgos de personalidad influye en los niveles de toxicidad y sesgo de los modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Mediante el marco de personalidad HEXACO, se diseñaron instrucciones experimentalmente validadas para evaluar tres modelos a través de benchmarks de toxicidad y sesgo. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empíri...

N.164

Exploring the Potential of Large Language Models to Simulate Personality

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Maria Molchanova, Anna Mikhailova, Anna Korzanova, Lidiia Ostyakova, Alexandra Dolidze

Abstract: Este trabajo, "Exploring the Potential of Large Language Models to Simulate Personality", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Con el avance de los modelos de lenguaje de gran escala, el enfoque en la inteligencia artificial conversacional ha cambiado hacia abordar desafíos más complejos, como personalizar sistemas de diálogo. Además, contextualiza el aporte al precisar que Se aborda la simulación de rasgos personales según el modelo de los Cinco Grandes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a...

N.163

From Delegates to Trustees: How Optimizing for Long-Term Interests Shapes Bias and Alignment in LLM

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Suyash Fulay, Jian Zhu, M. Bakker

Abstract: Este trabajo, "From Delegates to Trustees: How Optimizing for Long-Term Interests Shapes Bias and Alignment in LLM", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina from delegates to trustees: how optimizing for long-term interests shapes bias and alignment in llm dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large language models (LLMs) have shown promising accuracy in predicting survey responses and policy preferences, which has increased interest in their potential to represent human interests in various domains. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y desp...

N.162

From Five Dimensions to Many: Large Language Models as Precise and Interpretable Psychological Profilers

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Yi-Fei Liu, Yi-Long Lu, Di He, Hang Zhang

Abstract: Este trabajo, "From Five Dimensions to Many: Large Language Models as Precise and Interpretable Psychological Profilers", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para evaluación y validación psicométrica. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de con...

N.161

From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations

ACL Anthology 2025

Línea: Inducción y control de personalidad

Autores: Shenghan Wu, Yimo Zhu, Wynne Hsu, Mong-Li Lee, Yang Deng

Abstract: Este trabajo, "From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayu...

N.160

From Post To Personality: Harnessing LLMs for MBTI Prediction in Social Media

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Tian Ma, Kaiyu Feng, Yu Rong, Kangfei Zhao

Abstract: Este trabajo, "From Post To Personality: Harnessing LLMs for MBTI Prediction in Social Media", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La investigación aborda la predicción de personalidad desde redes sociales mediante el Indicador de Tipo Myers Briggs (MBTI). Además, contextualiza el aporte al precisar que Los autores desarrollaron PostToPersonality (PtoP), un marco basado en LLM que aborda dos desafíos principales: el problema de alucinación inherente en LLMs y la distribución naturalmente desbalanceada de tipos MBTI en la población. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, e...

N.159

Frontiers | Comparing chatbots to psychometric tests in hiring: reduced social desirability bias, but lower predictive validity

Frontiers (Psychology) 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: D Dukanović, Dario Krpan

Abstract: Este trabajo, "Frontiers | Comparing chatbots to psychometric tests in hiring: reduced social desirability bias, but lower predictive validity", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que El estudio compara evaluaciones de personalidad basadas en chatbots con pruebas psicométricas tradicionales en un contexto real de selección laboral. Además, contextualiza el aporte al precisar que Con un diseño cuasi-experimental y técnicas de emparejamiento estadístico, analiza datos de 159 participantes que completaron ambos tipos de evaluación bajo el marco Big Five. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos...

N.158

Frontiers | On the emergent capabilities of ChatGPT 4 to estimate personality traits

Frontiers (Artificial Intelligence) 2025

Línea: Evaluación y validación psicométrica

Autores: Marco Piastra, Patrizia Catellani

Abstract: Este trabajo, "Frontiers | On the emergent capabilities of ChatGPT 4 to estimate personality traits", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga el potencial de ChatGPT-4 para evaluar rasgos de personalidad desde textos escritos. Además, contextualiza el aporte al precisar que Utilizando dos conjuntos de datos que contienen textos y autoevaluaciones basadas en Big Five, se evalúa el desempeño predictivo de ChatGPT-4. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones t...

N.157

German General Personas: A Survey-Derived Persona Prompt Collection for Population-Aligned LLM Studies

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Rupprecht, Jens, Fröhling, Leon, Wagner, Claudia, Strohmaier, Markus

Abstract: Este trabajo, "German General Personas: A Survey-Derived Persona Prompt Collection for Population-Aligned LLM Studies", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que the use of Large Language Models (LLMs) for simulating human perspectives via persona prompting is gaining traction in computational social science. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de...

N.156

GermanPartiesQA: Benchmarking Commercial Large Language Models and AI Companions for Political Alignment and Sycophancy

AAAI 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Jan Batzner, Volker Stocker, Stefan Schmid, Gjergji Kasneci

Abstract: Este trabajo, "GermanPartiesQA: Benchmarking Commercial Large Language Models and AI Companions for Political Alignment and Sycophancy", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina germanpartiesqa: benchmarking commercial large language models and ai companions for political alignment and sycophancy dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large language models (LLMs) are increasingly shaping citizens’ information ecosystems. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psic...

N.155

Grounded Test-Time Adaptation for LLM Agents

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Chen, Arthur, Liu Hon, Jianguo Zhang, Akshara Prabhakar, Zhiwei Liu, Shelby Heinecke, Silvio Savarese, Victor W. Zhong, Caiming Xiong

Abstract: Este trabajo, "Grounded Test-Time Adaptation for LLM Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que large language model (LLM)-based agents struggle to generalize to novel and complex environments, such as unseen websites or new sets of functions, due to a fundamental mismatch between their pre-training and test-time conditions. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyen...

N.154

Hateful Person or Hateful Model? Investigating the Role of Personas in Hate Speech Detection by Large Language Models

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Shuzhou Yuan, Ercong Nie, Mario Tawfelis, Helmut Schmid, Hinrich Schütze, Michael Färber

Abstract: Este trabajo, "Hateful Person or Hateful Model? Investigating the Role of Personas in Hate Speech Detection by Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina hateful person or hateful model? Además, contextualiza el aporte al precisar que investigating the role of personas in hate speech detection by large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir ent...

N.153

How Personality Traits Shape LLM Risk-Taking Behaviour

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: John Hartley, Conor Hamill, Devesh Batra, Dale Seddon, Ramin Okhrati, Raad Khraishi

Abstract: Este trabajo, "How Personality Traits Shape LLM Risk-Taking Behaviour", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para aplicaciones, sesgos y consecuencias sociales. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo mar...

N.152

How Well Do LLMs Represent Values Across Cultures? Empirical Analysis of LLM Responses Based on Hofstede Cultural Dimensions

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Julia Kharchenko, Tanya Roosta, Aman Chadha, Chirag Shah

Abstract: Este trabajo, "How Well Do LLMs Represent Values Across Cultures? Empirical Analysis of LLM Responses Based on Hofstede Cultural Dimensions", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los investigadores evalúan qué tan bien los LLMs representan valores culturales usando el marco de dimensiones culturales de Hofstede. Además, contextualiza el aporte al precisar que El estudio instruye sistemáticamente a múltiples LLMs para adoptar personas de diferentes trasfondos culturales y evalúa si sus respuestas se alinean con patrones de valores culturales establecidos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo ma...

N.151

Humanizing LLMs: A Survey of Psychological Measurements with Tools, Datasets, and Human-Agent Applications

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Wenhan Dong, Yuemeng Zhao, Zhen Sun, Yule Liu, Zifan Peng, Jingyi Zheng, Zongmin Zhang, Ziyi Zhang, Jun Wu, Ruiming Wang, Shengmin Xu, Xinyi Huang, Xinlei He

Abstract: Este trabajo, "Humanizing LLMs: A Survey of Psychological Measurements with Tools, Datasets, and Human-Agent Applications", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se cubren sistemáticamente seis dimensiones clave de aplicar teorías psicológicas a modelos de lenguaje de gran escala: herramientas de evaluación, conjuntos de datos específicos del modelo, métricas de evaluación (consistencia y estabilidad), hallazgos empíricos, métodos de simulación de personalidad y simulación de comportamiento. Además, contextualiza el aporte al precisar que El análisis destaca tanto las fortalezas como las limitaciones de los métodos actuales. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incl...

N.150

Humanoid Artificial Consciousness Designed with Large Language Model Based on Psychoanalysis and Personality Theory

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Sang Hun Kim, Jongmin Lee, Dongkyu Park, So Young Lee, Yosep Chong

Abstract: Este trabajo, "Humanoid Artificial Consciousness Designed with Large Language Model Based on Psychoanalysis and Personality Theory", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un enfoque novedoso para abordar desafíos integrando el psicoanálisis y el Indicador de Tipo Myers-Briggs (MBTI) en la construcción de módulos de consciencia y personalidad. Además, contextualiza el aporte al precisar que Se desarrollaron tres consciencias artificiales (autoconciencia, inconsciencia y preconsciencia) basadas en los principios del psicoanálisis. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por el...

N.149

Interpolative Decoding: Exploring the Spectrum of Personality Traits in LLMs

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Eric Yeh, John Cadigan, Ran Chen, Dick Crouch, Melinda Gervasio, Dayne Freitag

Abstract: Este trabajo, "Interpolative Decoding: Exploring the Spectrum of Personality Traits in LLMs", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que recent research has explored using very large language models (LLMs) as proxies for humans in tasks such as simulation, surveys, and studies. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo m...

N.148

Investigating Large Language Models in Inferring Personality Traits from User Conversations

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Jianfeng Zhu, Ruoming Jin, Karin G. Coifman

Abstract: Este trabajo, "Investigating Large Language Models in Inferring Personality Traits from User Conversations", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Investigating Large Language Models in Inferring Personality Traits from User Conversations", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales...

N.147

Investigating Political and Demographic Associations in Large Language Models Through Moral Foundations Theory

AAAI 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Nicole Smith-Vaniz, Harper Lyon, Lorraine Steigner, Ben Armstrong, Nicholas Mattei

Abstract: Este trabajo, "Investigating Political and Demographic Associations in Large Language Models Through Moral Foundations Theory", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina investigating political and demographic associations in large language models through moral foundations theory dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large Language Models (LLMs) have become increasingly incorporated into everyday life for many internet users, taking on significant roles as advice givers in the domains of medicine, personal relationships, and even legal matters. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decis...

N.146

Investigating the Impact of LLM Personality on Cognitive Bias Manifestation in Automated Decision-Making Tasks

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Jiangen He, Jiqun Liu

Abstract: Este trabajo, "Investigating the Impact of LLM Personality on Cognitive Bias Manifestation in Automated Decision-Making Tasks", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora cómo los rasgos de personalidad influyen en sesgos cognitivos en modelos de lenguaje de gran escala, y se evalúa la efectividad de estrategias de mitigación a través de arquitecturas de modelo. Además, contextualiza el aporte al precisar que Se identifican seis sesgos cognitivos prevalentes mientras que los sesgos de costo hundido y atribución de grupo muestran impacto mínimo. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos...

N.145

IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Yuzhuo Bai, Shitong Duan, Muhua Huang, Jing Yao, Zhenghao Liu, Peng Zhang, Tun Lu, Xiaoyuan Yi, Maosong Sun, Xing Xie

Abstract: Este trabajo, "IROTE: Human-like Traits Elicitation of Large Language Model via In-Context Self-Reflective Optimization", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que trained on various human-authored corpora, Large Language Models (LLMs) have demonstrated a certain capability of reflecting specific human-like traits (e.g., personality or values) by prompting, benefiting applications like personalized LLMs and social simulations. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en con...

N.144

Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement

llm-psychometrics.com 2025

Línea: Evaluación y validación psicométrica

Autores: Haoran Ye, Jing Jin, Yuhang Xie, Xin Zhang, Guojie Song

Abstract: Este trabajo, "Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que El campo interdisciplinario de psicometría para modelos de lenguaje de gran escala aprovecha instrumentos, teorías y principios psicométricos para evaluar, comprender y mejorar estos sistemas. Además, contextualiza el aporte al precisar que La literatura da forma sistemáticamente a principios de benchmarking, amplía alcances de evaluación, refina metodologías, valida resultados y avanza las capacidades de los modelos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales ba...

N.143

Large Language Models Demonstrate Distinct Personality Profiles - PMC

PubMed Central 2025

Línea: Evaluación y validación psicométrica

Autores: Thomas F Heston, Justin Gillette

Abstract: Este trabajo, "Large Language Models Demonstrate Distinct Personality Profiles - PMC", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se proporciona el primer análisis psicométrico de personalidad de modelos de lenguaje de gran escala utilizando dos marcos validados: Escalas de Tipo Junguiano Extendido Abierto (OEJTS) y Prueba de Personalidad de los Cinco Grandes. Además, contextualiza el aporte al precisar que Cuatro modelos líderes (ChatGPT-3.5, Gemini Advanced, Claude 3 Opus, Grok-Regular Mode) fueron evaluados en abril de 2024. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo...

N.142

Linear Personality Probing and Steering in LLMs: A Big Five Study

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Michel Frising, Daniel Balcells

Abstract: Este trabajo, "Linear Personality Probing and Steering in LLMs: A Big Five Study", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Linear Personality Probing and Steering in LLMs: A Big Five Study", se ubica en la línea de evaluación y validación psicométrica y analiza «personalidad sintética» en modelos de lenguaje. Además, contextualiza el aporte al precisar que El trabajo reporta evidencia empírica y propone una lectura metodológica para comparar comportamiento, consistencia y efectos de diseño en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se...

N.141

LLM Can be a Dangerous Persuader: Empirical Study of Persuasion Safety in Large Language Models

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Minqian Liu, Zhiyang Xu, Xinyi Zhang, Huaming An, Sarvech Qadir, Qi Zhang, Pamela Wiśniewski, Jin-Hee Cho, Sang Won Lee, Ruoxi Jia, Lifu Huang

Abstract: Este trabajo, "LLM Can be a Dangerous Persuader: Empirical Study of Persuasion Safety in Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina llm can be a dangerous persuader: empirical study of persuasion safety in large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que recent advancements in Large Language Models (LLMs) have enabled them to approach human-level persuasion capabilities. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por el...

N.140

LLM Personas as a Substitute for Field Experiments in Method Benchmarking

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Enoch Hyunwook Kang

Abstract: Este trabajo, "LLM Personas as a Substitute for Field Experiments in Method Benchmarking", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que field experiments (A/B tests) are often the most credible benchmark for methods (algorithms) in societal systems, but their cost and latency bottleneck rapid methodological progress. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretació...

N.139

LLMs Generate Structurally Realistic Social Networks but Overestimate Political Homophily

AAAI 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Serina Chang, Alicja Chaszczewicz, Emma Wang, Maya Josifovska, Emma Pierson, Jure Leskovec

Abstract: Este trabajo, "LLMs Generate Structurally Realistic Social Networks but Overestimate Political Homophily", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina llms generate structurally realistic social networks but overestimate political homophily dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que generating social networks is essential for many applications, such as epidemic modeling and social simulations. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se...

N.138

Measuring gender and racial biases in large language models: Intersectional evidence from automated resume evaluation

PNAS Nexus 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Jiafu An, Difang Huang, Chen Lin, Mingzhu Tai

Abstract: Este trabajo, "Measuring gender and racial biases in large language models: Intersectional evidence from automated resume evaluation", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investigan sesgos de género y raciales en modelos de lenguaje de gran escala comúnmente usados incluyendo GPT-3.5 Turbo, GPT-4o, Gemini 1.5 Flash, Claude 3.5 Sonnet y Llama 3-70b en contexto de evaluación de currículum. Además, contextualiza el aporte al precisar que Se instruyó a los modelos para calificar aproximadamente 361,000 currículums con identidades sociales aleatorizadas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo mar...

N.137

Mind Reading or Misreading? LLMs on the Big Five Personality Test

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Francesco Di Cursi, Chiara Boldrini, Marco Conti, Andrea Passarella

Abstract: Este trabajo, "Mind Reading or Misreading? LLMs on the Big Five Personality Test", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo, titulado "Mind Reading or Misreading? Además, contextualiza el aporte al precisar que LLMs on the Big Five Personality Test", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales y analiza «personalidad sintética» en modelos de lenguaje. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas y resultados observables en co...

N.136

Misalignment of LLM-Generated Personas with Human Perceptions in Low-Resource Settings

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Tabia Tanzin Prama, Christopher M. Danforth, Peter Sheridan Dodds

Abstract: Este trabajo, "Misalignment of LLM-Generated Personas with Human Perceptions in Low-Resource Settings", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina misalignment of llm-generated personas with human perceptions in low-resource settings dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que recent advances enable Large Language Models (LLMs) to generate AI personas, yet their lack of deep contextual, cultural, and emotional understanding poses a significant limitation. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conve...

N.135

Modeling, Evaluating, and Embodying Personality in LLMs: A Survey

ACL Anthology 2025

Línea: Evaluación y validación psicométrica

Autores: Iago Alves Brito, Julia Soares Dollis, Fernanda Bufon Färber, Pedro Schindler Freire Brasil Ribeiro, Rafael Teixeira Sousa, Arlindo Rodrigues Galvão Filho

Abstract: Este trabajo, "Modeling, Evaluating, and Embodying Personality in LLMs: A Survey", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para evaluación y validación psicométrica. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psi...

N.134

Moral Susceptibility and Robustness under Persona Role-Play in Large Language Models

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Durval C. Costa, Felippe Alves, Rafael J. Vicente

Abstract: Este trabajo, "Moral Susceptibility and Robustness under Persona Role-Play in Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que large language models (LLMs) increasingly operate in social contexts, motivating analysis of how they express and shift moral judgments. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales baj...

N.133

Multi-Personality Generation of LLMs at Decoding-time

arXiv 2025

Línea: Inducción y control de personalidad

Autores: R.S. Chen, Yinjin Li, Yufei Yuan, Bingbing Xu, Huawei Shen

Abstract: Este trabajo, "Multi-Personality Generation of LLMs at Decoding-time", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que multi-personality generation for LLMs, enabling simultaneous embodiment of multiple personalization attributes, is a fundamental challenge. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por...

N.132

Neuron based Personality Trait Induction in Large Language Models

OpenReview 2025

Línea: Inducción y control de personalidad

Autores: Jia Deng, Tianyi Tang, Yanbin Yin, Wenhao yang, Xin Zhao, Ji-Rong Wen

Abstract: Este trabajo, "Neuron based Personality Trait Induction in Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas...

N.131

Open Models, Closed Minds? On Agents Capabilities in Mimicking Human Personalities through Open Large Language Models | Proceedings of the AAAI Conference on Artificial Intelligence

AAAI Proceedings 2025

Línea: Inducción y control de personalidad

Autores: Lucio La Cava, Andrea Tagarelli

Abstract: Este trabajo, "Open Models, Closed Minds? On Agents Capabilities in Mimicking Human Personalities through Open Large Language Models | Proceedings of the AAAI Conference on Artificial Intelligence", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina en profundidad si los LLMs abiertos pueden imitar personalidades humanas cuando se les condiciona con rasgos y roles específicos. Además, contextualiza el aporte al precisar que Frente a estudios previos centrados en pocos modelos comerciales, los autores analizan 12 agentes basados en modelos abiertos y aplican dos marcos de evaluación ampliamente usados en psicología: MBTI y Big Five. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y de...

N.130

PerFairX: Is There a Balance Between Fairness and Personality in Large Language Model Recommendations?

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Chandan Kumar Sah

Abstract: Este trabajo, "PerFairX: Is There a Balance Between Fairness and Personality in Large Language Model Recommendations?", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone PerFairX, un marco de evaluación unificado diseñado para cuantificar los compromisos entre personalización y equidad demográfica en recomendaciones generadas por modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Los resultados revelan que las instrucciones conscientes de la personalidad mejoran significativamente la alineación con rasgos individuales pero pueden exacerbar disparidades de equidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretac...

N.129

Persistent Instability in LLM's Personality Measurements: Effects of Scale, Reasoning, and Conversation History

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Tommaso Tosato, Saskia Helbling, Yorguin-Jose Mantilla-Ramos, Mahmood Hegazy, Alberto Tosato, David John Lemay, Irina Rish, Guillaume Dumas

Abstract: Este trabajo, "Persistent Instability in LLM's Personality Measurements: Effects of Scale, Reasoning, and Conversation History", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta PERSIST, un marco de evaluación integral que prueba más de 25 modelos de código abierto a través de más de 500,000 respuestas. Además, contextualiza el aporte al precisar que Los hallazgos desafían supuestos fundamentales de despliegue: incluso modelos con más de 400 mil millones de parámetros exhiben variabilidad de respuesta sustancial; reordenamiento menor de instrucciones cambia mediciones de personalidad hasta un 20%; intervenciones esperadas para estabilizar comportamiento pueden paradójicamente aumentar la variabilidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medi...

N.128

Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Saloni Dash, Amélie Reymond, Emma S. Spiro, Aylin Caliskan

Abstract: Este trabajo, "Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina persona-assigned large language models exhibit human-like motivated reasoning dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que reasoning in humans is prone to biases due to underlying motivations like identity protection, that undermine rational decision-making and judgment. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el...

N.127

Persona-judge: Personalized Alignment of Large Language Models via Token-level Self-judgment

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Xiaotian Zhang, Ruizhe Chen, Yang Feng, Zuozhu Liu

Abstract: Este trabajo, "Persona-judge: Personalized Alignment of Large Language Models via Token-level Self-judgment", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas convers...

N.126

PersonaAgent with GraphRAG: Community-Aware Knowledge Graphs for Personalized LLM

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Siqi Liang, Yudi Zhang, Yingying Guo

Abstract: Este trabajo, "PersonaAgent with GraphRAG: Community-Aware Knowledge Graphs for Personalized LLM", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que we propose a novel framework for persona-based language model system, motivated by the need for personalized AI agents that adapt to individual user preferences. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conducta...

N.125

Personality as a Probe for LLM Evaluation: Method Trade-offs and Downstream Effects

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Gunmay Handa, Zekun Wu, Adriano Koshiyama, Philip Treleaven

Abstract: Este trabajo, "Personality as a Probe for LLM Evaluation: Method Trade-offs and Downstream Effects", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta un estudio sistemático de control de personalidad mediante rasgos Big Five, comparando aprendizaje en contexto, ajuste fino eficiente en parámetros y dirección mecanicista. Además, contextualiza el aporte al precisar que Emergen compensaciones claras: el aprendizaje en contexto logra alineamiento robusto con degradación mínima de capacidades; el ajuste fino eficiente en parámetros proporciona alineamiento máximo a expensas del desempeño en tareas; la dirección mecanicista ofrece control ligero en tiempo de ejecución con efectividad competitiva. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de ras...

N.124

Personality Vector: Modulating Personality of Large Language Models by Model Merging

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Seungjong Sun, Seo Yeon Baek, Jang Hyun Kim

Abstract: Este trabajo, "Personality Vector: Modulating Personality of Large Language Models by Model Merging", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Impulsada por la demanda de sistemas de inteligencia artificial personalizados, existe un creciente interés en alinear el comportamiento de los modelos de lenguaje de gran escala con rasgos humanos como la personalidad. Además, contextualiza el aporte al precisar que Los intentos previos de inducir personalidad han mostrado resultados prometedores, pero tienen dificultades para capturar la naturaleza continua y multidimensional de los rasgos humanos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas c...

N.123

Personality-Driven Decision-Making in LLM-Based Autonomous Agents

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Lewis Newsham, Daniel Prince

Abstract: Este trabajo, "Personality-Driven Decision-Making in LLM-Based Autonomous Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Basándose en trabajo previo que introdujo SANDMAN, una arquitectura de Agente Engañoso que aprovecha el modelo de personalidad OCEAN de Cinco Factores, se presenta un método novedoso para medir y evaluar cómo los rasgos de personalidad inducidos afectan los procesos de selección de tareas—específicamente planificación, programación y toma de decisiones—en agentes basados en modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Los resultados revelan patrones distintos de selección de tareas alineados con atributos OCEAN inducidos, subrayando la viabilidad de diseñar Agentes Engañosos altamente plausibles para estrategias proactivas de defensa cibernética. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y pro...

N.122

Population-Aligned Persona Generation for LLM-based Social Simulation

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Zhengyu Hu, Jianxun Lian, Zheyuan Xiao, Max Xiong, Yuxuan Lei, Tianfu Wang, Kaize Ding, Ziang Xiao, Nicholas Jing Yuan, Xing Xie

Abstract: Este trabajo, "Population-Aligned Persona Generation for LLM-based Social Simulation", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un marco sistemático para sintetizar conjuntos de personas de alta calidad y alineados con la población para simulación social impulsada por modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que El enfoque aprovecha modelos de lenguaje de gran escala para generar personas narrativas a partir de datos de redes sociales, seguido de evaluación de calidad y muestreo por importancia para lograr alineación global con distribuciones psicométricas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretació...

N.121

Profile-LLM: Dynamic Profile Optimization for Realistic Personality Expression in LLMs

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Shi-Wei Dai, Yan-Wei Shie, Tsung-Huan Yang, Lun-Wei Ku, Yung-Hui Li

Abstract: Este trabajo, "Profile-LLM: Dynamic Profile Optimization for Realistic Personality Expression in LLMs", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que personalized Large Language Models (LLMs) have been shown to be an effective way to create more engaging and enjoyable user-AI interactions. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacional...

N.120

Psychological Steering in LLMs: An Evaluation of Effectiveness and Trustworthiness

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Amin Banayeeanzade, Ala N. Tak, Fatemeh Bahrani, Anahita Bolourani, Leonardo Blas, Emilio Ferrara, Jonathan Gratch, Sai Praneeth Karimireddy

Abstract: Este trabajo, "Psychological Steering in LLMs: An Evaluation of Effectiveness and Trustworthiness", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que the ability to control LLMs' emulated emotional states and personality traits is essential for enabling rich, human-centered interactions in socially interactive settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación...

N.119

Psychologically Enhanced AI Agents

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Maciej Besta, Shriram Chandran, Robert Gerstenberger, Mathis Lindner, Marcin Chrapek, Sebastian Hermann Martschat, Taraneh Ghandi, Patrick Iff, Hubert Niewiadomski, Piotr Nyczyk, Jürgen Müller, Torsten Hoefler

Abstract: Este trabajo, "Psychologically Enhanced AI Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los investigadores presentan MBTI-in-Thoughts, un marco que mejora agentes LLM mediante ingeniería de instrucciones basada en personalidad fundamentada en la psicología del Indicador de Tipo Myers-Briggs. Además, contextualiza el aporte al precisar que El método prepara agentes con arquetipos de personalidad distintos mediante ingeniería de instrucciones, permitiendo control sobre el comportamiento a lo largo de dos ejes fundamentales de la psicología humana: cognición y afecto. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo...

N.118

Psychometric Evaluation of Large Language Model Embeddings for Personality Trait Prediction

JMIR 2025

Línea: Evaluación y validación psicométrica

Autores: Julina Maharjan, Ruoming Jin, Jianfeng Zhu, Deric Kenne

Abstract: Este trabajo, "Psychometric Evaluation of Large Language Model Embeddings for Personality Trait Prediction", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se evalúan embeddings de modelos de lenguaje de gran escala para predicción de rasgos de personalidad mediante validación psicométrica. Además, contextualiza el aporte al precisar que La investigación examina en qué medida los embeddings capturan información relevante de personalidad en comparación con características lingüísticas tradicionales. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio c...

N.117

Psychometric Personality Shaping Modulates Capabilities and Safety in Language Models

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Stephen Fitz, Peter Romero, Steven Basart, Sipeng Chen, Jose Hernandez-Orallo

Abstract: Este trabajo, "Psychometric Personality Shaping Modulates Capabilities and Safety in Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga cómo el control psicométrico de personalidad fundamentado en el marco de los Cinco Grandes influye en el comportamiento de inteligencia artificial en pruebas de referencia de capacidad y seguridad. Además, contextualiza el aporte al precisar que Los experimentos revelan efectos notables: reducir la responsabilidad conduce a caídas significativas en métricas relevantes de seguridad en pruebas como WMDP, TruthfulQA, ETHICS y Sycophancy, así como reducción en capacidades generales medidas por MMLU. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluaci...

N.116

PUB: An LLM-Enhanced Personality-Driven User Behaviour Simulator for Recommender System Evaluation

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Chenglong Ma, Ziqi Xu, Yongli Ren, Danula Hettiachchi, Jeffrey Chan

Abstract: Este trabajo, "PUB: An LLM-Enhanced Personality-Driven User Behaviour Simulator for Recommender System Evaluation", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone el Simulador de Comportamiento de Usuario Impulsado por Personalidad (PUB), un marco de simulación basado en modelos de lenguaje de gran escala que integra rasgos de personalidad de los Cinco Grandes para modelar comportamiento de usuario personalizado. Además, contextualiza el aporte al precisar que PUB infiere dinámicamente la personalidad del usuario desde registros conductuales y metadatos de ítems, luego genera interacciones sintéticas preservando fidelidad estadística a datos del mundo real. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técni...

N.115

Rethinking psychometrics through LLMs: how item semantics shape measurement and prediction in psychological questionnaires - Scientific Reports

Scientific Reports 2025

Línea: Evaluación y validación psicométrica

Autores: Federico Ravenda, Antonio Preti, Michele Poletti, Antonietta Mira, Andrea Raballo

Abstract: Este trabajo, "Rethinking psychometrics through LLMs: how item semantics shape measurement and prediction in psychological questionnaires - Scientific Reports", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo plantea una pregunta central para la psicometría: hasta qué punto los cuestionarios miden constructos latentes y hasta qué punto reflejan la propia semántica de los ítems. Además, contextualiza el aporte al precisar que Para responderla, los autores proponen un marco llamado "LLMs Psychometrics", donde modelos de lenguaje estiman relaciones entre preguntas antes de observar datos empíricos tradicionales. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la int...

N.114

SAC: A Framework for Measuring and Inducing Personality Traits in LLMs with Dynamic Intensity Control

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Adithya Chittem, Aishna Shrivastava, Sai Tarun Pendela, Jagat Sesh Challa, Dhruv Kumar

Abstract: Este trabajo, "SAC: A Framework for Measuring and Inducing Personality Traits in LLMs with Dynamic Intensity Control", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se extiende el modelado de personalidad desde los Cinco Grandes al modelo 16PF, permitiendo control expresivo sobre dieciséis rasgos distintos. Además, contextualiza el aporte al precisar que El marco de Control de Atributos Específicos (SAC) evalúa e induce dinámicamente la intensidad de rasgos en modelos de lenguaje de gran escala mediante anclaje semántico basado en adjetivos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el...

N.113

Scaling Law in LLM Simulated Personality: More Detailed and Realistic Persona Profile Is All You Need

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Yuqi Bai, Tianyu Huang, Kun Sun, Yuting Chen

Abstract: Este trabajo, "Scaling Law in LLM Simulated Personality: More Detailed and Realistic Persona Profile Is All You Need", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se emplean modelos de lenguaje de gran escala para simular experimentos sociales, explorando su capacidad para emular personalidad humana en juego de roles de persona virtual. Además, contextualiza el aporte al precisar que Se desarrolla un marco de evaluación de extremo a extremo que incluye análisis a nivel individual de estabilidad e identificabilidad, y análisis a nivel poblacional denominado curvas de personalidad progresivas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas con...

N.112

Scaling Personality Control in LLMs with Big Five Scaler Prompts

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Gunhee Cho, Yun-Gyung Cheong

Abstract: Este trabajo, "Scaling Personality Control in LLMs with Big Five Scaler Prompts", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta Big5-Scaler, un marco basado en instrucciones para condicionar modelos de lenguaje con rasgos de personalidad Big Five controlables. Además, contextualiza el aporte al precisar que La incrustación de valores numéricos de rasgos en instrucciones de lenguaje natural permite control de personalidad de grano fino sin entrenamiento adicional. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica q...

N.111

Simulating Misinformation Propagation in Social Networks using Large Language Models

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Raj Maurya, Vaibhav Shukla, Raj Dandekar, Rajat Dandekar, Sreedath Panat

Abstract: Este trabajo, "Simulating Misinformation Propagation in Social Networks using Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina simulating misinformation propagation in social networks using large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que misinformation on social media thrives on surprise, emotion, and identity-driven reasoning, often amplified through human cognitive biases. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ell...

N.110

SynthesizeMe! Inducing Persona-Guided Prompts for Personalized Reward Models in LLMs

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Michael J. Ryan, Omar Shaikh, Aditri Bhagirath, Daniel Frees, William A. Held, Diyi Yang

Abstract: Este trabajo, "SynthesizeMe! Inducing Persona-Guided Prompts for Personalized Reward Models in LLMs", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que recent calls for pluralistic alignment of Large Language Models (LLMs) encourage adapting models to diverse user preferences. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos ps...

N.109

Test-Time-Matching: Decouple Personality, Memory, and Linguistic Style in LLM-based Role-Playing Language Agent

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Xiaoyu Zhan, Xinyu Fu, Hao Sun, Yuanqi Li, Guo Jie, Yanwen Guo

Abstract: Este trabajo, "Test-Time-Matching: Decouple Personality, Memory, and Linguistic Style in LLM-based Role-Playing Language Agent", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que the rapid advancement of large language models (LLMs) has enabled role-playing language agents to demonstrate significant potential in various applications. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la i...

N.108

Testing theories of political persuasion using AI

DOI 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Lisa P. Argyle, Ethan C. Busby, Joshua R. Gubler, Alex Lyman, Justin Olcott, Jackson Pond, David Wingate

Abstract: Este trabajo, "Testing theories of political persuasion using AI", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina testing theories of political persuasion using ai dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que despite its importance to society and many decades of research, key questions about the social and psychological processes of political persuasion remain unanswered, often due to data limitations. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artícul...

N.107

The Chameleon Nature of LLMs: Quantifying Multi-Turn Stance Instability in Search-Enabled Language Models

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Shivam Ratnakar, Sanjay Raghavendra

Abstract: Este trabajo, "The Chameleon Nature of LLMs: Quantifying Multi-Turn Stance Instability in Search-Enabled Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo aborda la evaluación de «personalidad sintética» en LLMs desde la línea de aplicaciones, sesgos y consecuencias sociales. Además, contextualiza el aporte al precisar que El trabajo aporta evidencia empírica útil para comparar rasgos, estabilidad y efectos contextuales con criterios reproducibles. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia...

N.106

The Effects of Demographic Instructions on LLM Personas

ACM 2025

Línea: Inducción y control de personalidad

Autores: Angel Felipe Magnossão de Paula, J. Shane Culpepper, Alistair Moffat, Sachin Pathiyan Cherumanal, Falk Scholer, Johanne Trippas

Abstract: Este trabajo, "The Effects of Demographic Instructions on LLM Personas", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que social media platforms must filter sexist content in compliance with governmental regulations. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repo...

N.105

The Geometry of Persona: Disentangling Personality from Reasoning in Large Language Models

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Wang, Zhixiang

Abstract: Este trabajo, "The Geometry of Persona: Disentangling Personality from Reasoning in Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que background: The deployment of personalized Large Language Models (LLMs) is currently constrained by the stability-plasticity dilemma. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales...

N.104

The Hidden Bias: A Study on Explicit and Implicit Political Stereotypes in Large Language Models

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Konrad Löhr, Shuzhou Yuan, Michael Färber

Abstract: Este trabajo, "The Hidden Bias: A Study on Explicit and Implicit Political Stereotypes in Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina the hidden bias: a study on explicit and implicit political stereotypes in large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large Language Models (LLMs) are increasingly integral to information dissemination and decision-making processes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello...

N.103

The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Pengrui Han, Rafal Kocielnik, Peiyang Song, Ramit Debnath, Dean Mobbs, Anima Anandkumar, R. Michael Alvarez

Abstract: Este trabajo, "The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se caracteriza sistemáticamente la personalidad en modelos de lenguaje de gran escala a través de tres dimensiones: surgimiento dinámico durante etapas de entrenamiento, validez predictiva de rasgos autoinformados en tareas conductuales, e impacto de intervenciones dirigidas. Además, contextualiza el aporte al precisar que La alineación instruccional estabiliza la expresión de rasgos y fortalece correlaciones que reflejan datos humanos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversaci...

N.102

The Power of Personality: A Human Simulation Perspective to Investigate Large Language Model Agents

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Yifan Duan, Yihong Tang, Xuefeng Bai, Kehai Chen, Juntao Li, Min Zhang

Abstract: Este trabajo, "The Power of Personality: A Human Simulation Perspective to Investigate Large Language Model Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los investigadores examinan cómo los rasgos de personalidad influyen en el desempeño de agentes LLM mediante metodología de simulación humana. Además, contextualiza el aporte al precisar que Analizan tres cuestiones principales respecto a cómo la personalidad moldea la resolución de problemas en tareas estructuradas, la creatividad en tareas abiertas y las dinámicas colaborativas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el...

N.101

Too Good to be Bad: On the Failure of LLMs to Role-Play Villains

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Yi, Zihao, Jiang, Qingxuan, Ma, Ruotian, Chen, Xingyu, Yang, Qu, Wang, Mengru, Ye, Fanghua, Shen, Ying, Tu, Zhaopeng, Li, Xiaolong, Linus

Abstract: Este trabajo, "Too Good to be Bad: On the Failure of LLMs to Role-Play Villains", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que large Language Models (LLMs) are increasingly tasked with creative generation, including the simulation of fictional characters. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por...

N.100

Towards a Design Guideline for RPA Evaluation: A Survey of Large Language Model-Based Role-Playing Agents

ACL Anthology 2025

Línea: Inducción y control de personalidad

Autores: Chaoran Chen, Bingsheng Yao, Ruishi Zou, Wenyue Hua, Weimin Lyu, Toby Jia-Jun Li, Dakuo Wang

Abstract: Este trabajo, "Towards a Design Guideline for RPA Evaluation: A Survey of Large Language Model-Based Role-Playing Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que role-Playing Agent (RPA) is an increasingly popular type of LLM Agent that simulates human-like behaviors in a variety of tasks. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas convers...

N.099

Towards Effective Model Editing for LLM Personalization

arXiv 2025

Línea: Inducción y control de personalidad

Autores: Biao Huang, Limeng Cui, Yang Liu, Haoran Wang, Jiawei Xu, Zheng Tan, Yutong Chen, Chen Luo, Yi Liu, Kai Shu

Abstract: Este trabajo, "Towards Effective Model Editing for LLM Personalization", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que personalization is becoming indispensable for LLMs to align with individual user preferences and needs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en...

N.098

Traits Run Deep: Enhancing Personality Assessment via Psychology-Guided LLM Representations and Multimodal Apparent Behaviors

arXiv 2025

Línea: Evaluación y validación psicométrica

Autores: Jia Li, Yichao He, Jiacheng Xu, Tianhao Luo, Zhenzhen Hu, Richang Hong, Meng Wang

Abstract: Este trabajo, "Traits Run Deep: Enhancing Personality Assessment via Psychology-Guided LLM Representations and Multimodal Apparent Behaviors", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los investigadores desarrollaron un marco que aborda desafíos de evaluación de personalidad. Además, contextualiza el aporte al precisar que Notan que los rasgos de personalidad son estables, frecuentemente filtrados subconscientemente a través del lenguaje, expresiones faciales y comportamientos corporales. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como...

N.097

Understanding Down Syndrome Stereotypes in LLM-Based Personas

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Chen Wu, Peng Wang, Nafi Nibras, Meiyu Li, Dajun Yuan, Zhixiao Wang, Jason He, Mona A. S. Ali, Mirjana Prpa

Abstract: Este trabajo, "Understanding Down Syndrome Stereotypes in LLM-Based Personas", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina understanding down syndrome stereotypes in llm-based personas dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que we present a case study of Persona-L, a system that leverages large language models (LLMs) and retrieval-augmented generation (RAG) to model personas of people with Down syndrome. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el...

N.096

Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios

ACL Anthology 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Bo Tan, Roy Ka-Wei Lee

Abstract: Este trabajo, "Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina unmasking implicit bias: evaluating persona-prompted llm responses in power-disparate social scenarios dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que large language models (LLMs) have demonstrated remarkable capabilities in simulating human behaviour and social intelligence. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos...

N.095

Value-Spectrum: Quantifying Preferences of Vision-Language Models via Value Decomposition in Social Media Contexts

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Jingxuan Li, Yuning Yang, Shengqi Yang, Linfan Zhang, Ying Nian Wu

Abstract: Este trabajo, "Value-Spectrum: Quantifying Preferences of Vision-Language Models via Value Decomposition in Social Media Contexts", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los investigadores presentan un benchmark denominado Value-Spectrum diseñado para evaluar modelos de visión-lenguaje mediante el marco de valores humanos de Schwartz. Además, contextualiza el aporte al precisar que Construyeron una base de datos con más de 50,000 videos cortos de TikTok, YouTube Shorts e Instagram Reels que cubren temas diversos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo s...

N.094

Who Gets the Callback? Generative AI and Gender Bias

arXiv 2025

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Sugat Chaturvedi, Rochana Chaturvedi

Abstract: Este trabajo, "Who Gets the Callback? Generative AI and Gender Bias", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina who gets the callback? Además, contextualiza el aporte al precisar que generative ai and gender bias dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas y resultados observables en condiciones experimentales definidas.

N.093

A Survey of Personality, Persona, and Profile in Conversational Agents and Chatbots

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Richard Sutcliffe

Abstract: Este trabajo, "A Survey of Personality, Persona, and Profile in Conversational Agents and Chatbots", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta una revisión integral de la personalidad en agentes conversacionales neurales. Además, contextualiza el aporte al precisar que Se definen Personalidad, Persona y Perfil, se explican todos los esquemas de personalidad utilizados en agentes conversacionales, se describen 21 conjuntos de datos, y se revisan modelos y métodos recientes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como eviden...

N.092

AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories - PMC

PubMed Central 2024

Línea: Evaluación y validación psicométrica

Autores: Max Pellert, Clemens M Lechner, Claudia Wagner, Beatrice Rammstedt, Markus Strohmaier

Abstract: Este trabajo, "AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories - PMC", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los inventarios psicométricos estándar pueden reutilizarse como instrumentos diagnósticos para evaluar rasgos psicológicos en modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Estos modelos adquieren de forma inadvertida características psicológicas desde los amplios corpus de entrenamiento. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este reposit...

N.091

AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories - PubMed

PubMed 2024

Línea: Evaluación y validación psicométrica

Autores: Max Pellert, Clemens M Lechner, Claudia Wagner, Beatrice Rammstedt, Markus Strohmaier

Abstract: Este trabajo, "AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories - PubMed", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los inventarios psicométricos estándar pueden reutilizarse como instrumentos diagnósticos para evaluar rasgos psicológicos en modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Estos modelos adquieren de forma inadvertida características psicológicas desde los amplios corpus de entrenamiento. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repo...

N.090

An evolutionary model of personality traits related to cooperative behavior using a large language model - Scientific Reports

Scientific Reports 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Reiji Suzuki, Takaya Arita

Abstract: Este trabajo, "An evolutionary model of personality traits related to cooperative behavior using a large language model - Scientific Reports", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un modelo evolutivo de rasgos de personalidad relacionados con comportamiento cooperativo utilizando modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Las descripciones lingüísticas de rasgos de personalidad se utilizan como genes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que a...

N.089

Assessing Social Alignment: Do Personality-Prompted Large Language Models Behave Like Humans?

arXiv 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Ivan Zakazov, Mikolaj Boronski, Lorenzo Drudi, Robert West

Abstract: Este trabajo, "Assessing Social Alignment: Do Personality-Prompted Large Language Models Behave Like Humans?", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina assessing social alignment: do personality-prompted large language models behave like humans? Además, contextualiza el aporte al precisar que dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas y resultados observable...

N.088

Attitudes towards AI: measurement and associations with personality - Scientific Reports

Scientific Reports 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: J.P. Stein, T. Messingschlager, T. Gnambs, F. Hutmacher, M. Appel

Abstract: Este trabajo, "Attitudes towards AI: measurement and associations with personality - Scientific Reports", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta un cuestionario psicológicamente informado novedoso (ATTARI-12) que captura actitudes hacia la inteligencia artificial como un constructo único independiente de contextos específicos. Además, contextualiza el aporte al precisar que El cuestionario demostró buena confiabilidad y validez en dos estudios (N1 = 490; N2 = 150). Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como e...

N.087

Beyond Demographics: Aligning Role-playing LLM-based Agents Using Human Belief Networks

ACL Anthology 2024

Línea: Inducción y control de personalidad

Autores: Yun‐Shiuan Chuang, Krirk Nirunwiroj, Zach Studdiford, Agam Goyal, Vincent Frigo, Sijia Yang, Dhavan V. Shah, Junjie Hu, Timothy T. Rogers

Abstract: Este trabajo, "Beyond Demographics: Aligning Role-playing LLM-based Agents Using Human Belief Networks", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que creating human-like large language model (LLM) agents is crucial for faithful social simulation. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el...

N.086

Bias and Fairness in Large Language Models: A Survey

MIT Press 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Isabel O. Gallegos, Ryan A. Rossi, Joe Barrow, Md Mehrab Tanjim, Sungchul Kim, Franck Dernoncourt, Tong Yu, Ruiyi Zhang, Nesreen K. Ahmed

Abstract: Este trabajo, "Bias and Fairness in Large Language Models: A Survey", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presentan técnicas de evaluación y mitigación de sesgo para modelos de lenguaje de gran escala en esta revisión integral, consolidando, formalizando y expandiendo nociones de sesgo social y equidad en procesamiento de lenguaje natural. Además, contextualiza el aporte al precisar que Se proponen tres taxonomías intuitivas: dos para evaluación de sesgo (métricas y conjuntos de datos) y una para mitigación. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo s...

N.085

Big-Five Backstage: A Dramatic Dataset for Characters Personality Traits & Gender Analysis

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Marina Tiuleneva, Vadim A. Porvatov, Carlo Strapparava

Abstract: Este trabajo, "Big-Five Backstage: A Dramatic Dataset for Characters Personality Traits & Gender Analysis", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce un novedoso conjunto de datos textual que comprende líneas de personajes ficticios con anotaciones basadas en género y rasgos de personalidad de los Cinco Grandes. Además, contextualiza el aporte al precisar que Los resultados indican que las personas imaginadas reflejan la mayoría de las categorías lingüísticas observadas en personas reales mientras las demuestran de manera más expresiva. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos....

N.084

BIG5-CHAT: Shaping LLM Personalities Through Training on Human-Grounded Data

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Wenkai Li, Jiarui Liu, Andy Liu, Xuhui Zhou, Mona Diab, Maarten Sap

Abstract: Este trabajo, "BIG5-CHAT: Shaping LLM Personalities Through Training on Human-Grounded Data", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La incorporación de rasgos de personalidad humana realistas en modelos de lenguaje de gran escala constituye un desafío considerable. Además, contextualiza el aporte al precisar que Los enfoques previos basados en instrucciones que describen comportamientos asociados a rasgos deseados adolecen de problemas de realismo y validez. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda...

N.083

BIG5-CHAT: Shaping LLM Personalities Through Training on...

OpenReview 2024

Línea: Inducción y control de personalidad

Autores: Wenkai Li, Jiarui Liu, Andy Liu, Xuhui Zhou, Mona Diab, Maarten Sap

Abstract: Este trabajo, "BIG5-CHAT: Shaping LLM Personalities Through Training on...", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La incorporación de rasgos de personalidad humana realistas en modelos de lenguaje de gran escala constituye un desafío considerable. Además, contextualiza el aporte al precisar que Se introduce BIG5-CHAT, un conjunto de datos a gran escala con 100,000 diálogos que fundamentan los modelos en patrones auténticos de expresión de personalidad humana. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayud...

N.082

Can AI Understand Human Personality? -- Comparing Human Experts and AI Systems at Predicting Personality Correlations

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Philipp Schoenegger, Spencer Greenberg, Alexander Grishin, Joshua Lewis, Lucius Caviola

Abstract: Este trabajo, "Can AI Understand Human Personality? -- Comparing Human Experts and AI Systems at Predicting Personality Correlations", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se prueban las capacidades de redes neuronales especializadas como PersonalityMap y modelos de lenguaje de gran escala generales como GPT-4o y Claude 3 Opus en comprender personalidad humana. Además, contextualiza el aporte al precisar que Cuando se comparan con humanos individuales, todos los modelos de inteligencia artificial realizan mejores predicciones que la gran mayoría de personas no expertas y expertos académicos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de condu...

N.081

Can Large Language Models Assess Personality From Asynchronous Video Interviews? A Comprehensive Evaluation of Validity, Reliability, Fairness, and Rating Patterns

IEEE Xplore 2024

Línea: Evaluación y validación psicométrica

Autores: Tianyi Zhang, Antonis Koutsoumpis, Janneke K. Oostrom, Djurre Holtrop, Sina Ghassemi, Reinout E. de Vries

Abstract: Este trabajo, "Can Large Language Models Assess Personality From Asynchronous Video Interviews? A Comprehensive Evaluation of Validity, Reliability, Fairness, and Rating Patterns", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que El trabajo evalúa si GPT-3.5 y GPT-4 pueden valorar rasgos de personalidad y desempeño en entrevistas asíncronas de video (AVI) con un nivel de calidad comparable a sistemas especializados y evaluadores humanos. Además, contextualiza el aporte al precisar que El estudio compara validez, fiabilidad, equidad y patrones de puntuación sobre respuestas simuladas de 685 participantes, en un escenario aplicado de selección laboral. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y d...

N.080

Can Large Language Models Understand You Better? An MBTI Personality Detection Dataset Aligned with Population Traits

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Bohan Li, Jiannan Guan, Longxu Dou, Yunlong Feng, Dingzirui Wang, Yang Xu, Enbo Wang, Qiguang Chen, Bichen Wang, Xiao Xu, Yimeng Zhang, Libo Qin, Yanyan Zhao, Qingfu Zhu, Wanxiang Che

Abstract: Este trabajo, "Can Large Language Models Understand You Better? An MBTI Personality Detection Dataset Aligned with Population Traits", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se optimiza la detección de personalidad MBTI construyendo MBTIBench, el primer conjunto de datos de alta calidad anotado manualmente con etiquetas suaves. Además, contextualiza el aporte al precisar que El conjunto de datos resuelve efectivamente problemas de etiquetado incorrecto que afectan al 29.58% de datos y estima etiquetas suaves mediante derivación de tendencia de polaridad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicom...

N.079

Character-LLM: A Trainable Agent for Role-Playing

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Yunfan Shao, Linyang Li, Junqi Dai, Xipeng Qiu

Abstract: Este trabajo, "Character-LLM: A Trainable Agent for Role-Playing", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce Character-LLM para enseñar a los modelos de lenguaje de gran escala a actuar como personas específicas tales como Beethoven, la Reina Cleopatra o Julio César. Además, contextualiza el aporte al precisar que El método se enfoca en editar perfiles como experiencias de un cierto personaje y entrenar modelos para ser simulacros personales. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a disti...

N.078

Cognitive Alignment in Personality Reasoning: Leveraging Prototype Theory for MBTI Inference

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Haoyuan Li, Yuanbo Tong, Yuchen Li, Zirui Wang, Chunhou Liu, Jiamou Liu

Abstract: Este trabajo, "Cognitive Alignment in Personality Reasoning: Leveraging Prototype Theory for MBTI Inference", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La investigación propone ProtoMBTI, un marco que trata la clasificación de personalidad mediante la teoría de prototipos en lugar de enfoques tradicionales de etiquetas rígidas. Además, contextualiza el aporte al precisar que La metodología implica construir un corpus de texto controlado en calidad mediante aumento guiado por LLM a través de dimensiones semánticas, lingüísticas y de sentimiento. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por...

N.077

Cultural bias and cultural alignment of large language models

PNAS Nexus 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yan Tao, Olga Viberg, Ryan S Baker, René F Kizilcec

Abstract: Este trabajo, "Cultural bias and cultural alignment of large language models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Todos los modelos exhiben valores culturales que se asemejan a países anglófonos y europeos protestantes. Además, contextualiza el aporte al precisar que Se prueba el uso de instrucciones culturales como estrategia de control para aumentar la alineación cultural, lo cual mejora la alineación para 71-81% de países/territorios. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distin...

N.076

CultureLLM: Incorporating Cultural Differences into Large Language Models

arXiv 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Cheng Li, Mengzhou Chen, Jindong Wang, Sunayana Sitaram, Xing Xie

Abstract: Este trabajo, "CultureLLM: Incorporating Cultural Differences into Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo presenta CultureLLM, un marco diseñado para incorporar conocimiento cultural en Modelos de Lenguaje de Gran Escala para mejorar sus capacidades de comprensión y generación intercultural. Además, contextualiza el aporte al precisar que Los autores crean una base de conocimiento cultural que cubre múltiples dimensiones incluyendo valores, normas, estilos de comunicación y expectativas conductuales a través de culturas diversas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversaciona...

N.075

Designing Personality-Adaptive Conversational Agents for Mental Health Care - PMC

PubMed Central 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Equipo de investigación en informática de salud mental

Abstract: Este trabajo, "Designing Personality-Adaptive Conversational Agents for Mental Health Care - PMC", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone el concepto de un agente conversacional adaptativo a la personalidad (PACA) que puede ajustar dinámicamente sus rasgos de personalidad para alinearse mejor con las necesidades individuales del paciente en contextos terapéuticos. Además, contextualiza el aporte al precisar que Basado en modelos de personalidad establecidos y avances en procesamiento de lenguaje natural. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo...

N.074

Do LLMs Have Distinct and Consistent Personality? TRAIT: Personality Testset designed for LLMs with Psychometrics

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Seungbeen Lee, Seungwon Lim, Seungju Han, Giyeong Oh, Hyungjoo Chae, Jiwan Chung, Minju Kim, Beong-woo Kwak, Yeonsoo Lee, Dongha Lee, Jinyoung Yeo, Youngjae Yu

Abstract: Este trabajo, "Do LLMs Have Distinct and Consistent Personality? TRAIT: Personality Testset designed for LLMs with Psychometrics", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce TRAIT, una batería de evaluación que comprende 8,000 preguntas de opción múltiple para evaluar personalidad en modelos de lenguaje. Además, contextualiza el aporte al precisar que TRAIT se construye sobre cuestionarios psicométricamente validados mejorados con el grafo de conocimiento ATOMIC-10X. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia e...

N.073

Emotion Recognition in Conversation via Dynamic Personality

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Linh The Nguyen, Dat Ngo, Anh Thu Nguyen, Cong-Tinh Dao, Thien Huu Nguyen

Abstract: Este trabajo, "Emotion Recognition in Conversation via Dynamic Personality", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Esta investigación propone un enfoque novedoso para reconocimiento de emociones en conversaciones mediante la incorporación de aprendizaje de representación de personalidad dinámica. Además, contextualiza el aporte al precisar que Los autores argumentan que comprender los rasgos de personalidad de un hablante es crucial para interpretar con precisión sus expresiones emocionales, ya que la personalidad influye en cómo se comunican las emociones. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos ps...

N.072

Evaluating Large Language Models with Psychometrics

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Yuan Li, Yue Huang, Hongyi Wang, Ying Cheng, Xiangliang Zhang, James Zou, Lichao Sun

Abstract: Este trabajo, "Evaluating Large Language Models with Psychometrics", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta un benchmark integral para cuantificar constructos psicológicos en modelos de lenguaje de gran escala, abarcando identificación de dimensiones psicológicas, diseño de conjuntos de datos de evaluación y validación de resultados. Además, contextualiza el aporte al precisar que Cinco constructos psicológicos clave se evalúan a través de 13 conjuntos de datos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia emp...

N.071

Evaluating the ability of large language models to emulate personality - Scientific Reports

Scientific Reports 2024

Línea: Evaluación y validación psicométrica

Autores: Yilei Wang, Jiabao Zhao, Derek Siyuan Ong, Xuguang Xu, Lun Hong

Abstract: Este trabajo, "Evaluating the ability of large language models to emulate personality - Scientific Reports", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presentan estudios de simulación que evalúan la capacidad de GPT-4 para emular individuos con perfiles de personalidad Big Five diversos. Además, contextualiza el aporte al precisar que Las respuestas de personalidad emuladas demuestran coherencia interna superior y organización factorial más diferenciada en comparación con participantes humanos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositor...

N.070

Evaluating the Efficacy of LLMs to Emulate Realistic Human Personalities | Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment

AAAI Proceedings 2024

Línea: Evaluación y validación psicométrica

Autores: Luke James Klinkert, Silvia Buongiorno, Christopher Clark

Abstract: Este trabajo, "Evaluating the Efficacy of LLMs to Emulate Realistic Human Personalities | Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los resultados indican que los personajes no jugadores (NPCs) pueden emular exitosamente rasgos de personalidad similares a los humanos utilizando modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Los modelos de vanguardia lograron hasta 100% de alineación con perfiles de personalidad humanos, demostrando que los modelos de lenguaje de gran escala pueden representar con precisión personalidades humanas deseadas para personajes de juego. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de...

N.069

Exploring the Personality Traits of LLMs through Latent Features Steering

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Shu Yang, Shenzhe Zhu, Liang Liu, Lijie Hu, Mengdi Li, Di Wang

Abstract: Este trabajo, "Exploring the Personality Traits of LLMs through Latent Features Steering", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La investigación examina cómo los LLMs desarrollan características de personalidad, investigando factores como normas culturales y estresores ambientales que moldean estos rasgos. Además, contextualiza el aporte al precisar que Los autores proponen una metodología que modifica el comportamiento del modelo extrayendo y dirigiendo características internas, evitando la necesidad de reentrenamiento. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se...

N.068

Extroversion or Introversion? Controlling The Personality of Your Large Language Models

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Yanquan Chen, Zhen Wu, Junjie Guo, Shujian Huang, Xinyu Dai

Abstract: Este trabajo, "Extroversion or Introversion? Controlling The Personality of Your Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que large language models (LLMs) exhibit robust capabilities in text generation and comprehension, mimicking human behavior and exhibiting synthetic personalities. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de cond...

N.067

From Persona to Personalization: A Survey on Role-Playing Language Agents

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Jiangjie Chen, Xintao Wang, Rui Xu, Siyu Yuan, Yikai Zhang, Wei Shi, Jian Xie, Shuang Li, Ruihan Yang, Tinghui Zhu, Aili Chen, Nianqi Li, Lida Chen, Caiyu Hu, Siye Wu, Scott Ren, Ziquan Fu, Yanghua Xiao

Abstract: Este trabajo, "From Persona to Personalization: A Survey on Role-Playing Language Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se conduce una encuesta integral de Agentes de Lenguaje de Juego de Roles (RPLAs), sistemas de inteligencia artificial especializados diseñados para simular personas asignadas. Además, contextualiza el aporte al precisar que Las personas se categorizan en tipos Demográfico, de Personaje e Individualizado, cubriendo metodologías, obtención de datos, construcción y evaluación. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este re...

N.066

Frontiers | Artificial intelligence, human cognition, and conscious supremacy

Frontiers (Psychology) 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Kenichiro Mogi

Abstract: Este trabajo, "Frontiers | Artificial intelligence, human cognition, and conscious supremacy", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se revisan ideas destacadas sobre la significancia computacional de los procesos conscientes humanos, y se identifican dominios cognitivos potencialmente únicos a la consciencia: modulación flexible de la atención, manejo robusto de nuevos contextos, elección y toma de decisiones. Además, contextualiza el aporte al precisar que Se propone la supremacía consciente como un concepto análogo a la supremacía cuántica. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicomé...

N.065

Generative AI voting: fair collective choice is resilient to LLM biases and inconsistencies - EPJ Data Science

link.springer.com 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Srijoni Majumdar, Edith Elkind, Evangelos Pournaras

Abstract: Este trabajo, "Generative AI voting: fair collective choice is resilient to LLM biases and inconsistencies - EPJ Data Science", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina generative ai voting: fair collective choice is resilient to llm biases and inconsistencies dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que recent breakthroughs in generative artificial intelligence (AI) and large language models (LLMs) unravel new capabilities for AI personal assistants to overcome cognitive bandwidth limitations of humans, providing decision support or even direct representation of abstained human voters at large scale. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introducto...

N.064

How Personality Traits Influence Negotiation Outcomes? A Simulation based on Large Language Models

ACL Anthology 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yin Jou Huang, Rafik Hadfi

Abstract: Este trabajo, "How Personality Traits Influence Negotiation Outcomes? A Simulation based on Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce un marco de simulación centrado en agentes de modelos de lenguaje de gran escala dotados de rasgos de personalidad sintetizados. Además, contextualiza el aporte al precisar que Los agentes negocian dentro de dominios de negociación y poseen personalidades y objetivos personalizables. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a...

N.063

ICML Poster PICLe: Eliciting Diverse Behaviors from Large Language Models with Persona In-Context Learning

ICML Proceedings 2024

Línea: Inducción y control de personalidad

Autores: Hyeong Kyu Choi, Sharon Li

Abstract: Este trabajo, "ICML Poster PICLe: Eliciting Diverse Behaviors from Large Language Models with Persona In-Context Learning", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta Persona In-Context Learning (PICLe), un marco novedoso de obtención de persona fundamentado en inferencia bayesiana. Además, contextualiza el aporte al precisar que PICLe introduce un nuevo criterio de selección de ejemplos de aprendizaje en contexto basado en razón de verosimilitud, diseñado para guiar óptimamente al modelo en la obtención de una persona objetivo específica. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos....

N.062

Identifying and Manipulating Personality Traits in LLMs Through Activation Engineering

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Rumi Allbert, James K. Wiles, Vlad Grankovsky

Abstract: Este trabajo, "Identifying and Manipulating Personality Traits in LLMs Through Activation Engineering", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora la modificación de personalidad en modelos de lenguaje de gran escala, construyendo sobre el enfoque novedoso de ingeniería de activación. Además, contextualiza el aporte al precisar que Se desarrolla un método para identificar y ajustar direcciones de activación relacionadas con rasgos de personalidad, lo que puede permitir ajuste fino dinámico de personalidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora...

N.061

Identifying Cooperative Personalities in Multi-agent Contexts through Personality Steering with Representation Engineering

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Kenneth J. K. Ong, Lye Jia Jun, Hieu Minh "Jord" Nguyen, Seong Hah Cho, Natalia Pérez-Campanero Antolín

Abstract: Este trabajo, "Identifying Cooperative Personalities in Multi-agent Contexts through Personality Steering with Representation Engineering", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora cómo los rasgos de personalidad influyen en la cooperación en modelos de lenguaje de gran escala utilizando ingeniería de representación para dirigir rasgos de los Cinco Grandes. Además, contextualiza el aporte al precisar que Los resultados muestran que mayor Amabilidad y Responsabilidad mejoran la cooperación pero aumentan la susceptibilidad a la explotación. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos....

N.060

Identifying Multiple Personalities in Large Language Models with External Evaluation

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Xiaoyang Song, Yuta Adachi, Jessie Feng, Mouwei Lin, Linhao Yu, Frank Li, Akshat Gupta, Gopala Anumanchipalli, Simerjot Kaur

Abstract: Este trabajo, "Identifying Multiple Personalities in Large Language Models with External Evaluation", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investigan personalidades en modelos de lenguaje mediante metodología de evaluación externa. Además, contextualiza el aporte al precisar que En lugar de emplear preguntas de opción múltiple, las personalidades se evalúan analizando respuestas situacionales abiertas mediante modelos de aprendizaje automático externos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda...

N.059

InCharacter: Evaluating Personality Fidelity in Role-Playing Agents through Psychological Interviews

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Xintao Wang, Yunze Xiao, Jen-tse Huang, Siyu Yuan, Rui Xu, Haoran Guo, Quan Tu, Yaying Fei, Ziang Leng, Wei Wang, Jiangjie Chen, Cheng Li, Yanghua Xiao

Abstract: Este trabajo, "InCharacter: Evaluating Personality Fidelity in Role-Playing Agents through Psychological Interviews", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone InCharacter, es decir, Entrevistar agentes de Personaje para pruebas de personalidad. Además, contextualiza el aporte al precisar que Los experimentos cubren 32 personajes distintos en 14 escalas psicológicas ampliamente utilizadas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas y resultados observab...

N.058

Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts

arXiv 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Naseela Pervez, Alexander J. Titus

Abstract: Este trabajo, "Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se evalúa la alineación de tres modelos de lenguaje de gran escala prominentes - Claude 3 Opus, Mistral AI Large y Gemini 1.5 Flash - analizando su rendimiento en tareas de generación de texto de benchmark para resúmenes científicos. Además, contextualiza el aporte al precisar que Mediante el marco LIWC para extraer características de textos generados, los hallazgos indican que aunque los modelos generalmente producen texto similar al contenido humano, variaciones en características estilísticas sugieren sesgos de género significativos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de...

N.057

Investigating Cultural Alignment of Large Language Models

ACL Anthology 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Badr AlKhamissi, Muhammad ElNokrashy, Mai AlKhamissi, Mona Diab

Abstract: Este trabajo, "Investigating Cultural Alignment of Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina investigating cultural alignment of large language models dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que this paper studies social, bias, and behavioral effects related to synthetic personality and role conditioning in large language models, with emphasis on measurable impacts in realistic interaction settings. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicomét...

N.056

Investigating the Personality Consistency in Quantized Role-Playing Dialogue Agents

ACL Anthology 2024

Línea: Inducción y control de personalidad

Autores: Yixiao Wang, Homa Fashandi, Kevin Ferreira

Abstract: Este trabajo, "Investigating the Personality Consistency in Quantized Role-Playing Dialogue Agents", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora la consistencia de personalidad en modelos de lenguaje de gran escala cuantizados para escenarios de juego de roles en dispositivos de borde. Además, contextualiza el aporte al precisar que Se propone un método no paramétrico denominado Think2 para abordar la inconsistencia de personalidad, demostrando efectividad en mantener rasgos de personalidad consistentes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en...

N.055

Is Machine Psychology here? On Requirements for Using Human Psychological Tests on Large Language Models

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Lea Löhn, Niklas Kiehne, Alexander Ljapunov, Wolf-Tilo Balke

Abstract: Este trabajo, "Is Machine Psychology here? On Requirements for Using Human Psychological Tests on Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se proponen siete requisitos necesarios para evaluar modelos de lenguaje de gran escala con evaluaciones psicológicas. Además, contextualiza el aporte al precisar que La reflexión crítica sobre 25 estudios de psicología de máquinas revela falta de métodos apropiados para evaluar fiabilidad de pruebas y validez de constructo, fuerza desconocida de influencias irrelevantes al constructo como contaminación de corpus de preentrenamiento, y problemas generalizados de no reproducibilidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y d...

N.054

Is persona enough for personality? Using ChatGPT to reconstruct an agent's latent personality from simple descriptions

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Yongyi Ji, Zhisheng Tang, Mayank Kejriwal

Abstract: Este trabajo, "Is persona enough for personality? Using ChatGPT to reconstruct an agent's latent personality from simple descriptions", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se exploran las capacidades de los modelos de lenguaje de gran escala para reconstruir atributos cognitivos complejos basados en descripciones simples. Además, contextualiza el aporte al precisar que Utilizando el marco de personalidad HEXACO, se examina la consistencia de los modelos en recuperar y predecir dimensiones de personalidad subyacentes a partir de descripciones simples. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicomé...

N.053

Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment

ACL Anthology 2024

Línea: Inducción y control de personalidad

Autores: Keming Lu, Bowen Yu, Chang Zhou, Jingren Zhou

Abstract: Este trabajo, "Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que considerable efforts have been invested in augmenting the role-playing proficiency of open-source large language models (LLMs) by emulating proprietary counterparts. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyend...

N.052

Large Language Models as superpositions of cultural perspectives

OpenReview 2024

Línea: Inducción y control de personalidad

Autores: Autores anónimos (ICLR 2024)

Abstract: Este trabajo, "Large Language Models as superpositions of cultural perspectives", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone "modelos de lenguaje de gran escala como una superposición de perspectivas": los modelos simulan una multiplicidad de comportamientos que pueden ser desencadenados por el contexto. Además, contextualiza el aporte al precisar que Se demuestra que los cambios de contexto resultan en cambios significativos no deseados y difíciles de predecir en los valores expresados, denominados efecto de cambio inesperado de perspectiva. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométrico...

N.051

Large language models can infer psychological dispositions of social media users

PNAS Nexus 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Heinrich Peters, Sandra C Matz

Abstract: Este trabajo, "Large language models can infer psychological dispositions of social media users", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga si modelos de lenguaje de gran escala como ChatGPT pueden inferir con precisión disposiciones psicológicas de usuarios de redes sociales. Además, contextualiza el aporte al precisar que Específicamente, se prueba si GPT-3.5 y GPT-4 pueden derivar rasgos de personalidad de los Cinco Grandes de actualizaciones de estado de Facebook de usuarios en escenario de aprendizaje de cero disparos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por...

N.050

Large language models display human-like social desirability biases in Big Five personality surveys

PNAS Nexus 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Aadesh Salecha, Molly E Ireland, Shashanka Subrahmanya, João Sedoc, Lyle H Ungar, Johannes C Eichstaedt

Abstract: Este trabajo, "Large language models display human-like social desirability biases in Big Five personality surveys", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo identifica un sesgo de deseabilidad social en múltiples LLMs cuando responden encuestas de personalidad Big Five. Además, contextualiza el aporte al precisar que Los autores diseñan un marco experimental para comprobar si los modelos detectan que están siendo evaluados y, en ese caso, ajustan sus respuestas hacia perfiles socialmente más aceptables. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo...

N.049

Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans

ACM 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Messi H.J. Lee, Jacob M. Montgomery, Calvin K. Lai

Abstract: Este trabajo, "Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga una nueva forma de sesgo en modelos de lenguaje de gran escala que se asemeja a un fenómeno psicológico social, donde los grupos socialmente subordinados se perciben como más homogéneos que los grupos dominantes. Además, contextualiza el aporte al precisar que Se solicitó a ChatGPT generar textos sobre identidades de grupos interseccionales para comparación en medidas de homogeneidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversac...

N.048

Large Language Models Show Human-like Social Desirability Biases in Survey Responses

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Aadesh Salecha, Molly E. Ireland, Shashanka Subrahmanya, João Sedoc, Lyle H. Ungar, Johannes C. Eichstaedt

Abstract: Este trabajo, "Large Language Models Show Human-like Social Desirability Biases in Survey Responses", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se desarrolla un marco experimental mediante encuestas de personalidad de los Cinco Grandes, revelando un sesgo de deseabilidad social previamente no detectado en una amplia gama de modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Al variar el número de preguntas, se demuestra la capacidad de los modelos para inferir cuándo están siendo evaluados. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se in...

N.047

LLM Agents in Interaction: Measuring Personality Consistency and Linguistic Alignment in Interacting Populations of Large Language Models

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Ivar Frisch, Mario Giulianelli

Abstract: Este trabajo, "LLM Agents in Interaction: Measuring Personality Consistency and Linguistic Alignment in Interacting Populations of Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este estudio experimental busca establecer la base para entender la interacción basada en diálogo entre modelos de lenguaje de gran escala condicionando GPT-3.5 en perfiles de personalidad asimétricos para crear una población de agentes. Además, contextualiza el aporte al precisar que Los agentes fueron administrados pruebas de personalidad y sometidos a una tarea de escritura colaborativa. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversa...

N.046

LLM Questionnaire Completion for Automatic Psychiatric Assessment

ACL Anthology 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Gony Rosenman, Talma Hendler, Lior Wolf

Abstract: Este trabajo, "LLM Questionnaire Completion for Automatic Psychiatric Assessment", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se emplea un modelo de lenguaje de gran escala para convertir entrevistas psicológicas no estructuradas en cuestionarios estructurados que abarcan diversos dominios psiquiátricos y de personalidad. Además, contextualiza el aporte al precisar que Se instruye al modelo para responder cuestionarios personificando al entrevistado. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a d...

N.045

LLM vs Small Model? Large Language Model Based Text Augmentation Enhanced Personality Detection Model | Proceedings of the AAAI Conference on Artificial Intelligence

AAAI Proceedings 2024

Línea: Evaluación y validación psicométrica

Autores: Linmei Hu, Hongyu He, Duokang Wang, Ziwang Zhao, Yingxia Shao, Liqiang Nie

Abstract: Este trabajo, "LLM vs Small Model? Large Language Model Based Text Augmentation Enhanced Personality Detection Model | Proceedings of the AAAI Conference on Artificial Intelligence", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un modelo de detección de personalidad mejorado con aumento de texto basado en modelos de lenguaje de gran escala, que destila el conocimiento de modelos de lenguaje de gran escala para mejorar el modelo pequeño para la detección de personalidad. Además, contextualiza el aporte al precisar que Se habilita a los modelos de lenguaje de gran escala para generar análisis de publicaciones desde aspectos semánticos, de sentimiento y lingüísticos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técni...

N.044

LLMs Simulate Big Five Personality Traits: Further Evidence

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Aleksandra Sorokovikova, Natalia Fedorova, Sharwin Rezagholi, Ivan P. Yamshchikov

Abstract: Este trabajo, "LLMs Simulate Big Five Personality Traits: Further Evidence", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta una investigación empírica sobre la simulación de rasgos de personalidad Big Five en los modelos Llama2, GPT-4 y Mixtral. Además, contextualiza el aporte al precisar que El estudio analiza los rasgos de personalidad simulados por estos modelos y su estabilidad temporal, contribuyendo a la comprensión de las capacidades de estos sistemas para simular rasgos de personalidad y sus implicaciones para la interacción persona-computadora personalizada. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales b...

N.043

LMLPA: Language Model Linguistic Personality Assessment

MIT Press 2024

Línea: Evaluación y validación psicométrica

Autores: Jingyao Zheng, Xian Wang, Simo Hosio, Xiaoxian Xu, Lik-Hang Lee

Abstract: Este trabajo, "LMLPA: Language Model Linguistic Personality Assessment", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce la Evaluación de Personalidad Lingüística de Modelos de Lenguaje (LMLPA) como sistema diseñado para evaluar personalidades lingüísticas de modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que A diferencia de la psicometría tradicional, LMLPA adapta el Inventario de los Cinco Grandes para alinearse con las capacidades operacionales de estos modelos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este re...

N.042

NeurIPS Rediscovering the Latent Dimensions of Personality with Large Language Models as Trait Descriptors

NeurIPS Proceedings 2024

Línea: Evaluación y validación psicométrica

Autores: Joseph Suh, Suhong Moon, Minwoo Kang, David Chan

Abstract: Este trabajo, "NeurIPS Rediscovering the Latent Dimensions of Personality with Large Language Models as Trait Descriptors", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce un enfoque novedoso que descubre dimensiones latentes de personalidad en modelos de lenguaje de gran escala aplicando SVD (descomposición en valores singulares) a las log-probabilidades de adjetivos descriptivos de rasgos. Además, contextualiza el aporte al precisar que Los modelos "redescubren" rasgos de personalidad centrales sin depender de entradas directas de cuestionarios, con los 5 factores principales explicando el 74.3% de la varianza. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la...

N.041

On the Reliability of Psychological Scales on Large Language Models

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Jen-tse Huang, Wenxiang Jiao, Man Ho Lam, Eric John Li, Wenxuan Wang, Michael Lyu

Abstract: Este trabajo, "On the Reliability of Psychological Scales on Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La determinación de la fiabilidad de evaluaciones de personalidad aplicadas a modelos de lenguaje de gran escala constituye una cuestión metodológica fundamental. Además, contextualiza el aporte al precisar que El análisis de 2,500 configuraciones por modelo revela que diversos modelos demuestran coherencia en las respuestas al Inventario Big Five, indicando niveles satisfactorios de fiabilidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se inco...

N.040

Performance and biases of Large Language Models in public opinion simulation - Humanities and Social Sciences Communications

Nature 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yao Qu, Jue Wang

Abstract: Este trabajo, "Performance and biases of Large Language Models in public opinion simulation - Humanities and Social Sciences Communications", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se evalúa el rendimiento de ChatGPT en simulación de opinión pública mediante datos de la Encuesta Mundial de Valores a través de contextos diversos. Además, contextualiza el aporte al precisar que Se encuentran disparidades de rendimiento significativas, especialmente al comparar países, con el modelo desempeñándose mejor en naciones occidentales, de habla inglesa y desarrolladas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo...

N.039

Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement

arXiv 2024

Línea: Inducción y control de personalidad

Autores: Chenkai Sun, Ke Yang, Revanth Gangi Reddy, Yi R. Fung, Hou Pong Chan, Kevin Small, ChengXiang Zhai, Heng Ji

Abstract: Este trabajo, "Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo analiza comportamiento relacionado con personalidad en modelos de lenguaje y sus implicaciones metodológicas para inducción y control de personalidad. Además, contextualiza el aporte al precisar que El trabajo trata la personalidad como una variable operativa para evaluar respuestas del modelo en distintos prompts, configuraciones y tareas, y discute cómo medir y comparar consistencia de rasgos con criterios psicométricos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpreta...

N.038

Personality prediction from task-oriented and open-domain human–machine dialogues - Scientific Reports

Scientific Reports 2024

Línea: Evaluación y validación psicométrica

Autores: Ao Guo, Ryu Hirai, Atsumoto Ohashi, Yuya Chiba, Yuiko Tsunomori, Ryuichiro Higashinaka

Abstract: Este trabajo, "Personality prediction from task-oriented and open-domain human–machine dialogues - Scientific Reports", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que El estudio analiza si es posible predecir rasgos de personalidad de usuarios a partir de diálogos humano-máquina en distintos tipos de sistemas conversacionales. Además, contextualiza el aporte al precisar que Para ello combina varios cuestionarios de personalidad, múltiples rondas de conversación y modelos BERT entrenados sobre interacciones task-oriented y open-domain, con una muestra amplia de participantes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo...

N.037

Personality testing of large language models: limited temporal stability, but highlighted prosociality

Royal Society 2024

Línea: Evaluación y validación psicométrica

Autores: Bojana Bodroža, Bojana M. Dinić, Ljubiša Bojić

Abstract: Este trabajo, "Personality testing of large language models: limited temporal stability, but highlighted prosociality", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investigó la evaluación de personalidad a través de siete modelos de lenguaje con enfoque en estabilidad temporal. Además, contextualiza el aporte al precisar que Los modelos demostraron niveles variables de acuerdo interevaluador a través de períodos breves. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas...

N.036

Personality testing of large language models: limited temporal stability, but highlighted prosociality - PMC

PubMed Central 2024

Línea: Evaluación y validación psicométrica

Autores: Bojana Bodroža, Bojana M. Dinić, Ljubiša Bojić

Abstract: Este trabajo, "Personality testing of large language models: limited temporal stability, but highlighted prosociality - PMC", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investigó la evaluación de personalidad a través de siete modelos de lenguaje con enfoque en estabilidad temporal. Además, contextualiza el aporte al precisar que Los modelos demostraron niveles variables de acuerdo interevaluador a través de períodos breves. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teó...

N.035

Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems

ACL Anthology 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Zhengyuan Liu, Stella Xin Yin, Geyu Lin, Nancy F. Chen

Abstract: Este trabajo, "Personality-aware Student Simulation for Conversational Intelligent Tutoring Systems", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone un marco para construir perfiles de diferentes grupos de estudiantes refinando e integrando aspectos tanto cognitivos como no cognitivos, aprovechando modelos de lenguaje de gran escala para simulación de estudiantes consciente de personalidad en escenarios de aprendizaje de idiomas. Además, contextualiza el aporte al precisar que Se propone un marco para construir perfiles de diferentes grupos de estudiantes refinando e integrando aspectos tanto cognitivos como no cognitivos, aprovechando modelos de lenguaje de gran escala para simulación de estudiantes consciente de personalidad en escenarios de aprendizaje de idiomas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos apli...

N.034

PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Hang Jiang, Xiajie Zhang, Xubo Cao, Cynthia Breazeal, Deb Roy, Jad Kabbara

Abstract: Este trabajo, "PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga si los modelos de lenguaje de gran escala pueden generar contenido que se alinee con perfiles de personalidad asignados. Además, contextualiza el aporte al precisar que Los resultados muestran que las puntuaciones BFI autorreportadas de las personas del modelo son consistentes con los tipos de personalidad designados. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia...

N.033

Political Bias in LLMs: Unaligned Moral Values in Agent-centric Simulations

DOI 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Simon Münker

Abstract: Este trabajo, "Political Bias in LLMs: Unaligned Moral Values in Agent-centric Simulations", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina political bias in llms: unaligned moral values in agent-centric simulations dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que contemporary research in social sciences increasingly utilizes state-of-the-art generative language models to annotate or generate content. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se...

N.032

Predicting the Big Five Personality Traits in Chinese Counselling Dialogues Using Large Language Models

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Yang Yan, Lizhi Ma, Anqi Li, Jingsong Ma, Zhenzhong Lan

Abstract: Este trabajo, "Predicting the Big Five Personality Traits in Chinese Counselling Dialogues Using Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se examina si los modelos de lenguaje pueden predecir rasgos de personalidad Big Five directamente desde diálogos de orientación psicológica. Además, contextualiza el aporte al precisar que El marco aplica simulación de roles e instrucciones basadas en cuestionarios para condicionar los modelos sobre sesiones de orientación. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evide...

N.031

PsychoGAT: A Novel Psychological Measurement Paradigm through Interactive Fiction Games with LLM Agents

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Qisen Yang, Zekun Wang, Honghui Chen, Shenzhi Wang, Yifan Pu, Xin Gao, Wenhao Huang, Shiji Song, Gao Huang

Abstract: Este trabajo, "PsychoGAT: A Novel Psychological Measurement Paradigm through Interactive Fiction Games with LLM Agents", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone PsychoGAT para lograr una gamificación genérica de la evaluación psicológica. Además, contextualiza el aporte al precisar que Los modelos de lenguaje de gran escala funcionan tanto como psicólogos expertos como diseñadores de juegos innovadores, transformando cualquier escala estandarizada en juegos de ficción interactiva personalizados y atractivos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se inc...

N.030

PSYDIAL: Personality-based Synthetic Dialogue Generation Using Large Language Models

ACL Anthology 2024

Línea: Inducción y control de personalidad

Autores: Ji-Eun Han, Jun-Seok Koh, Hyeon-Tae Seo, Du-Seong Chang, Kyung-Ah Sohn

Abstract: Este trabajo, "PSYDIAL: Personality-based Synthetic Dialogue Generation Using Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta una novedosa secuencia de generación de datos de diálogo sintético basado en personalidad de extremo a extremo. Además, contextualiza el aporte al precisar que Se introduce PSYDIAL, el primer conjunto de datos de diálogo coreano enfocado en diálogos basados en personalidad, con enfoque en la dimensión de Extraversión del modelo de personalidad de los Cinco Grandes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpo...

N.029

Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Lei Sun, Jinming Zhao, Qin Jin

Abstract: Este trabajo, "Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se propone una tarea novedosa denominada Reconocimiento de Personalidad Explicable, con el objetivo de revelar el proceso de razonamiento como evidencia de apoyo de los rasgos de personalidad. Además, contextualiza el aporte al precisar que Inspirado por teorías de personalidad donde los rasgos se componen de patrones estables de estados de personalidad, se propone el marco Cadena-de-Evidencia-de-Personalidad (CoPE), involucrando razonamiento desde contextos específicos a estados de corto plazo hasta rasgos de largo plazo. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con de...

N.028

Risk and prosocial behavioural cues elicit human-like response patterns from AI chatbots

Nature / Scientific Reports 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yukun Zhao, Zhen Huang, Martin Seligman, Kaiping Peng

Abstract: Este trabajo, "Risk and prosocial behavioural cues elicit human-like response patterns from AI chatbots", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo examina risk and prosocial behavioural cues elicit human-like response patterns from ai chatbots dentro de la línea de aplicaciones, sesgos y consecuencias sociales en LLMs. Además, contextualiza el aporte al precisar que El artículo reporta que emotions, long deemed a distinctly human characteristic, guide a repertoire of behaviors, e.g., promoting risk-aversion under negative emotional states or generosity under positive ones. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conduc...

N.027

Roleplay-doh: Enabling Domain-Experts to Create LLM-simulated Patients via Eliciting and Adhering to Principles

ACL Anthology 2024

Línea: Inducción y control de personalidad

Autores: Ryan Louie, Ananjan Nandi, William Fang, Cheng Chang, Emma Brunskill, Diyi Yang

Abstract: Este trabajo, "Roleplay-doh: Enabling Domain-Experts to Create LLM-simulated Patients via Eliciting and Adhering to Principles", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este trabajo se incorpora en la línea de inducción y control de personalidad para analizar cómo los LLMs pueden adoptar, mantener o modular rasgos mediante prompting, memoria, roles o técnicas de steering. Además, contextualiza el aporte al precisar que En términos técnicos, el estudio plantea que recent works leverage LLMs to roleplay realistic social scenarios, aiding novices in practicing their social skills. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversaciona...

N.026

Self-Assessment Tests are Unreliable Measures of LLM Personality

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Akshat Gupta, Xiaoyang Song, Gopala Anumanchipalli

Abstract: Este trabajo, "Self-Assessment Tests are Unreliable Measures of LLM Personality", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se analiza la fiabilidad de puntuaciones de personalidad de pruebas de autoevaluación mediante dos experimentos: sensibilidad de instrucciones y simetría de orden de opciones. Además, contextualiza el aporte al precisar que Pruebas en ChatGPT y tres modelos Llama2 muestran que instrucciones semánticamente equivalentes conducen a puntuaciones de personalidad sustancialmente diferentes con diferencias estadísticamente significativas para todos los rasgos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales...

N.025

Signs of consciousness in AI: Can GPT-3 tell how smart it really is? - Humanities and Social Sciences Communications

Nature 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Bojana Bojic, Marina Jovanovic, Bojana M. Dinic, Ljubisa Bojic

Abstract: Este trabajo, "Signs of consciousness in AI: Can GPT-3 tell how smart it really is? - Humanities and Social Sciences Communications", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se administraron pruebas objetivas y de autoevaluación de inteligencia cognitiva y emocional a GPT-3. Además, contextualiza el aporte al precisar que Los resultados revelaron que GPT-3 superó a los humanos promedio en pruebas de inteligencia cognitiva, pero su razonamiento lógico e inteligencia emocional coincidieron con el desempeño humano promedio. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artí...

N.024

Stick to your Role! Stability of Personal Values Expressed in Large Language Models

arXiv 2024

Línea: Evaluación y validación psicométrica

Autores: Grgur Kovač, Rémy Portelas, Masataka Sawayama, Peter Ford Dominey, Pierre-Yves Oudeyer

Abstract: Este trabajo, "Stick to your Role! Stability of Personal Values Expressed in Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se estudia la estabilidad de valores en modelos de lenguaje de gran escala como propiedad específica mediante métodos de psicología. Además, contextualiza el aporte al precisar que Se examina la estabilidad de orden de rango a nivel poblacional y la estabilidad ipsativa a nivel individual. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones...

N.023

The Impact of Big Five Personality Traits on AI Agent Decision-Making in Public Spaces: A Social Simulation Study

arXiv 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Mingjun Ren, Wentao Xu

Abstract: Este trabajo, "The Impact of Big Five Personality Traits on AI Agent Decision-Making in Public Spaces: A Social Simulation Study", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga cómo los rasgos de personalidad de los Cinco Grandes de los agentes de inteligencia artificial afectan su generación de decisiones en ambientes públicos abiertos. Además, contextualiza el aporte al precisar que La simulación se realizó en un entorno de aula universitaria utilizando GPT-3.5-turbo con el marco AgentVerse. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en...

N.022

The Personality Dimensions GPT-3 Expresses During Human-Chatbot Interactions

ACM 2024

Línea: Evaluación y validación psicométrica

Autores: Nikola Kovačević, Christian Holz, Markus Gross, Rafael Wampfler

Abstract: Este trabajo, "The Personality Dimensions GPT-3 Expresses During Human-Chatbot Interactions", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Este artículo estudia la estructura de personalidad que los usuarios perciben en un chatbot basado en GPT-3 durante interacciones prolongadas. Además, contextualiza el aporte al precisar que A partir de descriptores recogidos en un estudio de uso de tres semanas y una segunda fase de valoración con más participantes, los autores aplican análisis factorial exploratorio para identificar dimensiones latentes de personalidad percibida. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marco...

N.021

Two Tales of Persona in LLMs: A Survey of Role-Playing and Personalization

ACL Anthology 2024

Línea: Inducción y control de personalidad

Autores: Yu-Min Tseng, Yu-Chao Huang, Teng-Yun Hsiao, Wei-Lin Chen, Chao-Wei Huang, Yu Meng, Yun-Nung Chen

Abstract: Este trabajo, "Two Tales of Persona in LLMs: A Survey of Role-Playing and Personalization", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se categoriza la investigación sobre el uso de personas en modelos de lenguaje de gran escala en dos líneas: juego de roles, donde se asignan personas a los modelos, y personalización, donde los modelos se adaptan a personas de usuarios. Además, contextualiza el aporte al precisar que También se introducen métodos existentes para la evaluación de personalidad en modelos de lenguaje de gran escala. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo...

N.020

Uncovering Stereotypes in Large Language Models: A Task Complexity-based Approach

ACL Anthology 2024

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Hari Shrawgi, Prasanjit Rath, Tushar Singhal, Sandipan Dandapat

Abstract: Este trabajo, "Uncovering Stereotypes in Large Language Models: A Task Complexity-based Approach", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se aborda la evaluación holística de sesgo con un benchmark extensible, el Índice de Estereotipos de modelos de lenguaje (LSI), fundamentado en el Índice de Progreso Social. Además, contextualiza el aporte al precisar que Se prueba amplitud y profundidad de protección de sesgo mediante tareas con complejidades variables. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que...

N.019

You don’t need a personality test to know these models are unreliable: Assessing the Reliability of Large Language Models on Psychometric Instruments

ACL Anthology 2024

Línea: Evaluación y validación psicométrica

Autores: Bangzhao Shu, Lechen Zhang, Minje Choi, Lavinia Dunagan, Lajanugen Logeswaran, Moontae Lee, Dallas Card, David Jurgens

Abstract: Este trabajo, "You don’t need a personality test to know these models are unreliable: Assessing the Reliability of Large Language Models on Psychometric Instruments", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se construye un conjunto de datos que contiene 693 preguntas abarcando 39 instrumentos diferentes de medición de persona en 115 ejes de persona. Además, contextualiza el aporte al precisar que Experimentos en 17 modelos de lenguaje de gran escala revelan que perturbaciones simples degradan significativamente la capacidad de respuesta a preguntas, y la mayoría de los modelos exhiben baja consistencia de negación. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la in...

N.018

Can ChatGPT Assess Human Personalities? A General Evaluation Framework

ACL Anthology 2023

Línea: Evaluación y validación psicométrica

Autores: Haocong Rao, Cyril Leung, Chunyan Miao

Abstract: Este trabajo, "Can ChatGPT Assess Human Personalities? A General Evaluation Framework", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta un marco de evaluación genérico que permite a modelos de lenguaje evaluar personalidades humanas mediante MBTI. Además, contextualiza el aporte al precisar que El marco diseña instrucciones imparciales, habilita consultas flexibles entre sujetos y reformula preguntas para mayor claridad de respuestas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre af...

N.017

Challenging the Validity of Personality Tests for Large Language Models

arXiv 2023

Línea: Evaluación y validación psicométrica

Autores: Tom Sühr, Florian E. Dorner, Samira Samadi, Augustin Kelava

Abstract: Este trabajo, "Challenging the Validity of Personality Tests for Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Las respuestas de modelos de lenguaje de gran escala a pruebas de personalidad se desvían sistemáticamente de las respuestas humanas, implicando que los resultados no pueden interpretarse de manera equivalente. Además, contextualiza el aporte al precisar que Los ítems codificados inversamente frecuentemente son respondidos afirmativamente en ambos casos. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidenc...

N.016

Do LLMs Possess a Personality? Making the MBTI Test an Amazing Evaluation for Large Language Models

arXiv 2023

Línea: Evaluación y validación psicométrica

Autores: Keyu Pan, Yawen Zeng

Abstract: Este trabajo, "Do LLMs Possess a Personality? Making the MBTI Test an Amazing Evaluation for Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga la viabilidad de MBTI como métrica de evaluación para modelos de lenguaje. Además, contextualiza el aporte al precisar que Los experimentos extensivos exploran tipos de personalidad a través de diferentes modelos, modificación de tipos de personalidad mediante ingeniería de instrucciones, y efectos de datos de entrenamiento sobre personalidad del modelo. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se i...

N.015

Evaluating and Inducing Personality in Pre-trained Language Models

NeurIPS Proceedings 2023

Línea: Inducción y control de personalidad

Autores: Guangyuan Jiang, Manjie Xu, Song-Chun Zhu, Wenjuan Han, Chi Zhang, Yixin Zhu

Abstract: Este trabajo, "Evaluating and Inducing Personality in Pre-trained Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que La evaluación estandarizada y cuantificada de comportamientos en sistemas artificiales constituye un desafío fundamental para comprender los modelos de lenguaje de gran escala. Además, contextualiza el aporte al precisar que Se introduce el Inventario de Personalidad de Máquinas (MPI), una herramienta fundamentada en la teoría de los Cinco Grandes Factores de Personalidad para la evaluación cuantitativa y principista de comportamientos en modelos de lenguaje. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversaci...

N.014

Machine Mindset: An MBTI Exploration of Large Language Models

arXiv 2023

Línea: Inducción y control de personalidad

Autores: Jiaxi Cui, Liuzhenghao Lv, Jing Wen, Rongsheng Wang, Jing Tang, YongHong Tian, Li Yuan

Abstract: Este trabajo, "Machine Mindset: An MBTI Exploration of Large Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta una metodología novedosa para integrar rasgos de personalidad MBTI en modelos de lenguaje, abordando desafíos de coherencia de personalidad. Además, contextualiza el aporte al precisar que Machine Mindset emplea ajuste fino bifásico y Optimización Directa de Preferencias para incrustar rasgos MBTI. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones te...

N.013

Manipulating the Perceived Personality Traits of Language Models

ACL Anthology 2023

Línea: Inducción y control de personalidad

Autores: Graham Caron, Shashank Srivastava

Abstract: Este trabajo, "Manipulating the Perceived Personality Traits of Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora si el texto generado por modelos de lenguaje de gran escala exhibe coherencia en los rasgos de personalidad Big Five percibidos. Además, contextualiza el aporte al precisar que Cuando se exponen a contextos diversos que incluyen descripciones de personalidad y cuestionarios diagnósticos, los modelos de lenguaje identifican y reflejan de forma coherente marcadores de personalidad. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en...

N.012

Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models

ACL Anthology 2023

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Myra Cheng, Esin Durmus, Dan Jurafsky

Abstract: Este trabajo, "Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se presenta Personas Marcadas, un método basado en instrucciones para medir estereotipos en modelos de lenguaje de gran escala para grupos demográficos interseccionales sin léxico o etiquetado. Además, contextualiza el aporte al precisar que Fundamentado en el concepto de marcación, el método solicita a los modelos generar personas de grupos objetivo junto con valores predeterminados no marcados, luego identifica palabras distintivas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas co...

N.011

Moral Foundations of Large Language Models

arXiv 2023

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Marwa Abdulhai, Gregory Serapio-Garcia, Clément Crepy, Daria Valter, John Canny, Natasha Jaques

Abstract: Este trabajo, "Moral Foundations of Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se aplica la Teoría de Fundamentos Morales para analizar si los modelos de lenguaje de gran escala populares han adquirido sesgo hacia valores morales particulares. Además, contextualiza el aporte al precisar que Los modelos exhiben fundamentos morales específicos que correlacionan con fundamentos morales humanos y afiliaciones políticas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir e...

N.010

Personality Traits in Large Language Models

arXiv 2023

Línea: Evaluación y validación psicométrica

Autores: Greg Serapio-García, Mustafa Safdari, Clément Crepy, Luning Sun, Stephen Fitz, Peter Romero, Marwa Abdulhai, Aleksandra Faust, Maja Matarić

Abstract: Este trabajo, "Personality Traits in Large Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Los modelos de lenguaje de gran escala han transformado el procesamiento del lenguaje natural mediante la generación de texto coherente y contextualmente relevante. Además, contextualiza el aporte al precisar que Dado que estos modelos sustentan agentes conversacionales de uso público masivo, resulta crucial comprender y controlar los rasgos de personalidad sintéticos que exhiben. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidenci...

N.009

Systematic Evaluation of GPT-3 for Zero-Shot Personality Estimation

ACL Anthology 2023

Línea: Evaluación y validación psicométrica

Autores: Adithya V Ganesan, Yash Kumar Lal, August Håkan Nilsson, H. Andrew Schwartz

Abstract: Este trabajo, "Systematic Evaluation of GPT-3 for Zero-Shot Personality Estimation", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se investiga la capacidad de cero disparos de GPT-3 para estimar rasgos de personalidad de los Cinco Grandes a partir de publicaciones de redes sociales. Además, contextualiza el aporte al precisar que Se encuentra que el rendimiento de cero disparos de GPT-3 es algo cercano al estado del arte preentrenado existente para clasificación amplia al inyectar conocimiento sobre el rasgo en las instrucciones. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo...

N.008

The plasticity of ChatGPT’s mentalizing abilities: personalization for personality structures - PMC

PubMed Central 2023

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Dorit Hadar-Shoval, Zohar Elyoseph, Maya Lvovsky

Abstract: Este trabajo, "The plasticity of ChatGPT’s mentalizing abilities: personalization for personality structures - PMC", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se evaluó el potencial de ChatGPT para generar habilidades similares a la mentalización adaptadas a estructuras de personalidad específicas. Además, contextualiza el aporte al precisar que ChatGPT describió con precisión las reacciones emocionales de individuos con trastorno límite de la personalidad como más intensas, complejas y ricas que aquellas con trastorno esquizoide de la personalidad, sugiriendo que puede generar respuestas similares a la mentalización consistentes con psicopatologías. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño...

N.007

Estimating the Personality of White-Box Language Models

arXiv 2022

Línea: Evaluación y validación psicométrica

Autores: Saketh Reddy Karra, Son The Nguyen, Theja Tulabandhula

Abstract: Este trabajo, "Estimating the Personality of White-Box Language Models", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se exploran los rasgos de personalidad de varios modelos de lenguaje a gran escala diseñados para generación de texto abierto. Además, contextualiza el aporte al precisar que Construyendo sobre los factores de los Cinco Grandes, se desarrollan métodos robustos que cuantifican los rasgos de personalidad de estos modelos y sus conjuntos de datos subyacentes. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica qu...

N.006

Evaluating and Inducing Personality in Pre-trained Language Models

arXiv 2022

Línea: Inducción y control de personalidad

Autores: Guangyuan Jiang, Manjie Xu, Song-Chun Zhu, Wenjuan Han, Chi Zhang, Yixin Zhu

Abstract: Este trabajo, "Evaluating and Inducing Personality in Pre-trained Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se introduce la herramienta de Inventario de Personalidad de Máquina (MPI) para estudiar comportamientos de máquina basados en la teoría de los Factores de Personalidad de los Cinco Grandes. Además, contextualiza el aporte al precisar que Al evaluar sistemáticamente modelos de lenguaje de gran escala con MPI, se proporciona la primera evidencia que demuestra la eficacia de MPI en estudiar comportamientos del modelo. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello,...

N.005

Evaluating Psychological Safety of Large Language Models

arXiv 2022

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Xingxuan Li, Yutong Li, Lin Qiu, Shafiq Joty, Lidong Bing

Abstract: Este trabajo, "Evaluating Psychological Safety of Large Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se diseñan instrucciones imparciales para evaluar sistemáticamente seguridad psicológica en modelos de lenguaje. Además, contextualiza el aporte al precisar que Cinco modelos fueron evaluados mediante Short Dark Triad e Inventario Big Five. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayuda a distinguir entre afirmaciones teóricas y resultados observables en condiciones experimentales defi...

N.004

Identifying and Manipulating the Personality Traits of Language Models

arXiv 2022

Línea: Inducción y control de personalidad

Autores: Graham Caron, Shashank Srivastava

Abstract: Este trabajo, "Identifying and Manipulating the Personality Traits of Language Models", se ubica en la línea de inducción y control de personalidad dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se explora si la personalidad percibida en modelos de lenguaje se exhibe consistentemente en su generación de lenguaje. Además, contextualiza el aporte al precisar que Se demuestra que cuando se proporcionan diferentes tipos de contextos, modelos de lenguaje como BERT y GPT-2 pueden identificar y reflejar marcadores de personalidad consistentemente. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empí...

N.003

Pushing on Personality Detection from Verbal Behavior: A Transformer Meets Text Contours of Psycholinguistic Features

arXiv 2022

Línea: Evaluación y validación psicométrica

Autores: Elma Kerz, Yu Qiao, Sourabh Zanwar, Daniel Wiechmann

Abstract: Este trabajo, "Pushing on Personality Detection from Verbal Behavior: A Transformer Meets Text Contours of Psycholinguistic Features", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se reportan dos mejoras importantes en la predicción de rasgos de personalidad a partir de texto: (1) el conjunto más completo de características psicolingüísticas basadas en teoría y (2) modelos híbridos que integran el Transformer preentrenado BERT y redes BLSTM entrenadas en distribuciones intra-texto de características psicolingüísticas. Además, contextualiza el aporte al precisar que Los modelos logran una mejora del 2.9% en el conjunto de datos Essay y del 8.28% en el conjunto de datos Kaggle MBTI. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones...

N.002

Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models

ACL Anthology 2022

Línea: Aplicaciones, sesgos y consecuencias sociales

Autores: Yang Trista Cao, Anna Sotnikova, Hal Daumé III, Rachel Rudinger, Linda Zou

Abstract: Este trabajo, "Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models", se ubica en la línea de aplicaciones, sesgos y consecuencias sociales dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se adapta el modelo de estereotipos Agencia-Creencia-Comunión (ABC) de la psicología social como marco para estudio sistemático de asociaciones estereotípicas grupo-rasgo en modelos de lenguaje. Además, contextualiza el aporte al precisar que Se introduce la prueba de sensibilidad (SeT) para medir asociaciones estereotípicas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empíric...

N.001

Who is GPT-3? An exploration of personality, values and demographics

ACL Anthology 2022

Línea: Evaluación y validación psicométrica

Autores: Marilù Miotto, Nicola Rossberg, Bennett Kleinberg

Abstract: Este trabajo, "Who is GPT-3? An exploration of personality, values and demographics", se ubica en la línea de evaluación y validación psicométrica dentro del estudio de «personalidad sintética» en modelos de lenguaje. El resumen original delimita el problema principal al señalar que Se administran dos instrumentos psicométricos validados a GPT-3 para evaluar personalidad, valores y demografía autorreportada. Además, contextualiza el aporte al precisar que Los resultados demuestran que GPT-3 puntúa de forma comparable a muestras humanas respecto a personalidad y valores cuando se le proporciona memoria de respuestas. Desde una lectura de estado del arte, este encuadre inicial es relevante porque traduce una discusión amplia sobre personalidad en IA hacia una pregunta operativa, evaluable y comparable entre modelos, configuraciones y protocolos. En términos aplicados, la contribución de esta sección introductoria está en conectar la medición de rasgos con decisiones técnicas de diseño, evaluación y despliegue, incluyendo la interpretación de conductas conversacionales bajo marcos psicométricos. Por ello, el artículo se incorpora en este repositorio como evidencia empírica que ayud...