BT

A sua opinião é importante! Por favor preencha a pesquisa do InfoQ!

A segmentação de papéis na criação de um processo ágil de Data Science

| por Luiz Andrade Seguir 0 Seguidores , Gabriel Sivieri Seguir 0 Seguidores , Juliana Cesaro Seguir 0 Seguidores em 11 jul 2017. Tempo estimado de leitura: 5 minutos |

A note to our readers: As per your request we have developed a set of features that allow you to reduce the noise, while not losing sight of anything that is important. Get email and web notifications by choosing the topics you are interested in.

Quem já tentou montar uma equipe de Data Science ou de Modelagem Matemática se vê diante de dois grandes desafios. O primeiro: como encontrar cientistas de dados com conhecimento em Estatística, Machine Learning e Análise de Dados, e o segundo: como estabelecer processos padronizados e eficientes para uma atividade de criação.

Talvez esse segundo desafio seja mais geral, vivido em diversas indústrias, como por exemplo a de publicidade e propaganda. No entanto, na área de ciência de dados muitas vezes os objetivos, meios e fins são desconhecidos no início de um projeto.

A atividade de modelagem matemática de um cientista de dados é quase como uma exploração sem conhecimento prévio dos caminhos e dos resultados. Há sim inúmeras boas práticas e caminhos "comuns" para alguns tipos de problemas, mas essencialmente trata-se de uma atividade intelectual de feature engineering que exige enorme criatividade.

Outra atividade comumente atribuída aos cientistas de dados é a construção de sistemas preditivos dentro de APIs ou de outros sistemas. Isso exige um conhecimento de tecnologias de Big Data, como bancos de processamento massivo e técnicas de desenvolvimento de software. Essa atividade é muito mais ligada ao universo de engenharia de software e tecnologia da informação do que de matemática aplicada propriamente dita.

Isso faz com que o cientista de dados, da forma que é procurado no mercado, seja um verdadeiro "unicórnio" (termo cunhado pelo mercado para descrever esses profissionais raríssimos).

Contudo, ao invés de ficar buscando esses "unicórnios", não seria mais lógico seguir o caminho da indústria de software e definir os papéis e responsabilidades de forma mais segmentada?

Com isso em mente, pode-se dividir os profissionais de Machine Learning entre os ligados às áreas de matemática aplicada e mineração de dados; e aqueles conectados aos temas tecnológicos de ML, como a gestão de banco de dados massivos, construção de APIs preditivas e engenharia de software.

Na TEVEC, especializada em previsão de comportamento de demanda por meio de Inteligência Artificial, optamos por dividir nossa equipe de modelagem matemática em duas, uma de cientistas de dados e outra de engenheiros de Machine Learning. Isso possibilitou uma abordagem mais organizada no dia a dia e um maior foco nas áreas de especialização necessárias para a construção de sistemas de previsão.

Com essa divisão é possível estabelecer os papéis e responsabilidades de cada equipe. A equipe de engenheiros de ML tem foco em produto (software), enquanto a equipe de Data Science tem foco em customer service. Para esclarecer, enquanto os engenheiros de ML se preocupam em fornecer as ferramentas de forma simples e prática para a condução de análises e construção de modelos, a equipe de Data Science utiliza essas ferramentas para continuamente aprimorar os modelos e pipelines de cálculo colocados à disposição dos clientes.

Um dos maiores dilemas vividos na área de Machine Learning está no momento em que se conclui uma atividade de análise de dados e construção de modelos, e é necessário disponibilizar todo o conhecimento gerado para os clientes em uma estrutura de software. Nesse momento percebe-se que as estruturas e modelos criados são muito específicos para um ambiente de experimentação e precisam de muitas alterações antes do deploy. Para solucionar ou pelo menos mitigar esse estresse, propusemos um processo ágil de Data Science associado a uma arquitetura de software que permite a construção rápida de modelos e subida seamless para o ambiente produtivo.

Nosso processo funciona da seguinte forma:

  1. No início de cada ciclo a equipe de engenharia de ML extrai do sistema um relatório de qualidade. Esse relatório contém a acurácia de cada previsão feita pelo sistema. A acurácia é calculada com base na previsão e no valor real informado pelo mesmo canal de integração da nossa plataforma;
  2. Com base no relatório os cientistas de dados analisam as oportunidades de melhoria em múltiplos datasets. Por exemplo, pode existir um grupo de datasets com forte influência de fatores climáticos. Assim os cientistas de dados podem sugerir melhorias mais gerais no sistema, beneficiando múltiplos clientes simultaneamente, além de melhorias evolutivas e não reativas;
  3. Os cientistas de dados implementam as melhorias em um console controlado. Eles desenvolvem pipelines, incluem novas variáveis explicativas e fazem melhorias de algoritmos, seguindo um padrão de especificação de nós e grafos computacionais;
  4. Após a conclusão do desenvolvimento anterior os cientistas de dados e os engenheiros de ML montam experimentos massivos que varrem o sistema testando a aplicação do novo pipeline nos datasets alvo. E também verificam se, de fato, podem ser antevistas melhorias de acurácia e performance dos modelos;
  5. Após a execução dos testes massivos há uma reunião com nossas áreas de negócio (nossa equipe de customer success e com as equipes comerciais). Isso permite a comunicação com os clientes e identificação de novas oportunidades de negócio;
  6. Uma vez que os pipelines e os testes foram desenvolvidos sob uma estrutura padronizada de programação, o deploy dos modelos é realizado de forma direta para o ambiente produtivo. Os pipelines que promoveram melhorias são vinculados aos datasets e passam a responder as requisições em nossa API.

Atualmente, o ciclo do processo de Data Science é feito quinzenalmente, mas o plano é realizá-lo semanalmente, em sincronia com nossos sprints de desenvolvimento de software.

Esse processo aliado à definição de papéis e responsabilidades possibilitou a comunicação efetiva entre as equipes, maior especialização em temas desafiadores de ML e maior colaboração entre matemática aplicada e engenharia de software. Como resultado final, temos um sistema de processos, pessoas e tecnologia alinhados para a melhoria contínua da acurácia, que deveria ser o objetivo de qualquer sistema preditivo.

Avalie esse artigo

Relevância
Estilo/Redação

Olá visitante

Você precisa cadastrar-se no InfoQ Brasil ou para enviar comentários. Há muitas vantagens em se cadastrar.

Obtenha o máximo da experiência do InfoQ Brasil.

Dê sua opinião

HTML é permitido: a,b,br,blockquote,i,li,pre,u,ul,p

Receber mensagens dessa discussão
Comentários da comunidade

Projeto by Guilherme Naymaier

Bom dia,
Gostaria de saber se você faz ou indica quem poderia conversar sobre um app java para coleta de dados a partir de iamgens (tabloides e mídia impressa) e também essa mesa mídia digitalizada e disponibilizada online, a ideia é formar um banco de dados a partir de imagens coletadas por celular.
favor me contatar: guilherme.naymaier@bis-brasil.com / 51 9 9992.8979

HTML é permitido: a,b,br,blockquote,i,li,pre,u,ul,p

Receber mensagens dessa discussão

HTML é permitido: a,b,br,blockquote,i,li,pre,u,ul,p

Receber mensagens dessa discussão

1 Dê sua opinião

Faça seu login para melhorar sua experiência com o InfoQ e ter acesso a funcionalidades exclusivas


Esqueci minha senha

Follow

Siga seus tópicos e editores favoritos

Acompanhe e seja notificados sobre as mais importantes novidades do mundo do desenvolvimento de software.

Like

Mais interação, mais personalização

Crie seu próprio feed de novidades escolhendo os tópicos e pessoas que você gostaria de acompanhar.

Notifications

Fique por dentro das novidades!

Configure as notificações e acompanhe as novidades relacionada a tópicos, conteúdos e pessoas de seu interesse

BT