O artigo Online Human-Bot Interactions: Detection, Estimation, and Characterization foi elaborado por pesquisadores acadêmicos que investigaram as interações dos bots no Twitter, para identificar padrões de controle por modelos de machine learning. O objetivo do estudo foi de analisar a complexidade e razões das redes e interações realizadas por estes mecanismos, em comparação com as interações dos usuários humanos.
Os dados foram coletados da API do Twitter e através da mineração de dados realizada pelos pesquisadores Onur Varol, Clayton A. Davis, Emilio Ferrara, Filippo Menczer e Alessandro Flammini. A partir da análise e organização prévia, propuseram seis características diferentes, como:  “User-based features“; “Friends features“; “Network features“; “Temporal features“; “Content and language features“; “Sentiment features“; entre outras especificidades durante o estudo.

User-based features (Características baseadas no usuário): Os dados dos perfis dos usuários foram extraídos e classificados em determinados padrões: números de seguidores e de seguidos, números de tweets, descrição no perfil e as configurações.
Friends features (Características dos amigos): Nesta área foram considerados quatro tipos de conexões entre amigos no Twitter, como os retweets de amigos e menções dos amigos, assim como, perfil retweetado e perfil mencionado. Nestes casos, para cada grupo separadamente foram extraídos recursos sobre linguagens, horários, popularidades, etc.
Network features (Características da rede): A estrutura da rede carregou informações cruciais, pois no sistema utilizado foram identificados mais três tipos de conexões entre as redes. Os retweets e menções direcionam links entre pares de seguidores para disseminar informações, já as hashtags tem links não direcionados entre os nós quando duas hashtags ocorrem juntas em um tweet. Para cada rede, foram calculados conjuntos de recursos, incluindo distribuições internas e de força (grau ponderado) densidade das redes e agrupamento.
Temporal features (Características temporais): Em relação às características e análises temporais, os pesquisadores realizaram medidas em várias características relacionadas às atividades dos usuários, incluindo as taxas médias de produção dos tweets em períodos de tempo e distribuições de intervalos entre os eventos publicados.
Content and language features (Características de conteúdo e linguagem): O sistema estatístico utilizado não empregava recursos de captura da qualidade dos tweets, a exemplo das mensagens enganadoras, que geralmente exibem linguagens informais e frases curtas. Dessa forma, aplicaram os recursos e métodos de marcação oriundos das técnicas de Part of Speech (POS), para entender a natureza da conversa e identificar linguagens específicas: linguagens naturais, componentes ou etiquetas.
Sentiment features (Características de sentimentos): A análise de sentimento foi empregada para estruturar e entender a polarização das redes, em relação às emoções e atitudes de humor transmitidas por partes de textos e conversas inteiras, a exemplo da excitação, valência e dominância.

Características analisadas no modelo proposto:

Estrategias de classificacao

Este estudo identificou três grupos distintos de bots: spammers, self promoters, e contas que publicam conteúdos de aplicativos conectados. Dentre estes foram examinados textos com conteúdos de grupos de terrorismo, rumores e teorias da conspiração, além dos bots programados para persuasão comercial.
Contudo, os pesquisadores também informam que existem sofisticações, estratégias e aprendizados a partir das utilizações de softwares que identificam estes tipos de robôs. As técnicas estatísticas estão descritas e exemplificadas ao longo do artigo, onde houve a estimativa de que entre 9% e 15% das contas ativas no Twitter são compostas por bots.