O valor dos dados: mapeamento de etapas e vantagens de uma estratégia de Data Science
A pandemia mundial do novo coronavírus mudou tudo que conhecíamos como realidade. Não só reconfigurou nosso estilo de vida, como também mudou nossa rotina, nosso trabalho e até a maneira como consumimos e nos relacionamos.
Mas não é a 1ª vez que encaramos uma evolução dessa forma no mundo. Imagino que você lembre quando a internet chegou em sua casa e a mudança que isso representou: ela anunciou uma verdadeira revolução digital.
Depois disso, a hiperconectividade gerada pelas redes interconectadas nos transportou para a Era dos Dados.
Some a essa equação a nova conjuntura que vivemos: isolamento social e a maioria das pessoas confinadas em suas casas. O resultado? O consumo e a produção de dados através da rede explodiram. E alcançaram uma nova ordem de grandeza exponencial.
Essa mudança reconfigurou nossos hábitos e nossa rotina com uma velocidade exponencial. Se pensarmos em nossa realidade há 10 anos atrás, não poderíamos sequer imaginar a imensa quantidade de usuários que utilizam dados, hoje, para se comunicar. Você poderia?
Acreditamos que, na situação atual, ninguém mais duvida do poder dos dados. Hoje, tudo são dados. Eles estão em todos os lugares: no que você compra, no que você posta, nos conteúdos que você consome, no que você preenche.
Você produz dados incontáveis 24 horas por dia. Dados são inevitáveis!
O tão falado “novo normal”
Um grande ciclo de inovações está acontecendo. Pessoas, empresas e países estão se reconfigurando para começar a construção do tal “novo normal”.
Nessa corrida, sai (bem) na frente quem souber utilizar seus dados. E quando falamos em utilizar, queremos dizer tratar e interpretar da forma correta. É isso que garante a virada de chave para transformar modelos de negócios, recalibrar estratégias e se manter competitivo no mercado.
Não tem para onde correr: o deep dive em Ciência de Dados é fundamental para as corporações que querem sobreviver.
Dados: a nova kryptonita
Você já deve ter ouvido essa frase de Clive Humby, matemático britânico do ramo da ciência de dados. Ele disse:
“Os dados são o novo petróleo. É valioso, mas se não refinado, não pode realmente ser usado. Ele precisa ser transformado em gás, plástico, produtos químicos etc., para criar uma entidade valiosa que impulsiona atividades lucrativas; portanto, os dados devem ser detalhados, analisados para que tenham valor“.
Nós concordamos. E acreditamos que as empresas precisam acompanhar esse movimento. Porém, vamos um pouco além.
Acreditamos que os dados são a nova kryptonita. Sim, a pedra das histórias do Super-Homem. É muito poderosa, mas capaz de enfraquecer e tornar vulnerável quem não a manipula corretamente.
Se você não souber manipular seus dados de acordo com ela, estará enfraquecido e fadado a perder seu ativo mais valioso: o cliente.
Data Science + IA: o sarrafo subiu
Estamos testemunhando um crescimento exponencial de Data Science nas corporações. É claro que isso está diretamente ligado à ascensão da Era dos Dados, que reconfigurou o mercado e trouxe uma certa urgência para que as empresas transformassem seus modelos de negócios.
Fica claro que os dados superaram o petróleo e são o ativo mais valioso do mundo. São eles que vão te dar a musculatura necessária para analisar a fundo antes de tomar qualquer decisão.
A IA elevou a análise de dados a um outro patamar. Não só subiu o sarrafo, como colocou os dados como o verdadeiro combustível para a próxima geração de inteligência. A partir das inteligências artificiais, vemos um novo mundo sair do papel e transformar-se em realidade. E isso só é possível por conta da abundância de dados na web.
Estamos em um momento em que as empresas já compreendem a importância de usar análise de dados em suas estratégias corporativas. O que falta? Saber organizar, gerenciar e monitorar as operações de dados. É aí que nós entramos. Acompanhe!
3 etapas para aplicar Data Science no seu negócio
Aqui na MJV utilizamos 3 passos fundamentais para obter eficiência e sucesso nos projetos de Data Science.
- Avaliar a governança e a organização do nosso cliente
A governança é muito importante porque estamos em um processo para entender como os dados vão ser utilizados. Para isso, estamos imersos em LGPD – que trataremos mais adiante -, que entrará em vigor nos próximos meses.
Entendemos que os dados são importantes para serem utilizados por clientes e por outras empresas, mas isso precisa ser governado porque existe toda uma questão de privacidade do usuário e quais são as informações que ele quer disponibilizar (deixando abertas na rede).
Por isso, o primeiro passo é entender a governança e organização do nosso cliente.
- Entender como funciona a arquitetura de dados do cliente
Depois da primeira etapa, precisamos saber:
- Que tecnologias o cliente utiliza?
- Como essas tecnologias se integram?
- Onde essas tecnologias estão localizadas?
3) Data Science (propriamente dito)
- Business & Data Immersion
Entender primeiramente o negócio do nosso cliente e como os dados podem melhorá-los e impactá-los positivamente. É como diz o nosso jargão: entender a linguagem do cliente.
Dessa forma, se torna mais fácil acessar os processos corretamente e otimizar os processos que precisaremos tocar com o projeto de Data Science.
Nota: se você lembrou de Design Thinking por aqui, está absolutamente certo! Isso é muito importante para fazermos o processo de imersão e aculturamento dentro da empresa.
- Data Acquisition & Harmonization
É basicamente fazer a aquisição do dado. Depois de entender onde a tecnologia se distribui, o dado é capturado. Esse dado é harmonizado (entre planilhas, tabelas etc.) em uma tabela única – que será a nossa tabela de trabalho.
Nesse documento, iremos acessar a informação, entender como o dado está distribuído, entender quais são as chaves que ligam àquele dado aos clientes e pacificar os dados para que todas as tabelas estejam integradas.
- AI Workbench
Seria, em tradução livre, uma bancada de trabalho de Inteligência Artificial. Nela, vamos gerar, testar e ajustar vários modelos diferentes para entender rapidamente qual terá mais sucesso ao ser implementado na fase final do projeto.
Aqui, temos alguns tipos de aprendizados:
- Aprendizado supervisionado: algoritmos de aprendizado supervisionado constroem modelos a partir de dados que contém as entradas e as saídas desejadas.
- Aprendizado não-supervisionado: estes algoritmos usam um conjunto de dados que contém apenas entradas e localizam a estrutura nos dados, como agrupamentos de dados, ou a segmentação por uma característica específica.
- Aprendizado por Reforço: algoritmos que trabalham na “área cinza” entre os dois anteriores. Utilizam programação dinâmica e outras técnicas para o aprendizado contínuo, sendo que o controle é gerido pelo ambiente em que o sistema está inserido.
- Business Focused Deploy
Nessa parte final, vamos entregar o modelo da melhor maneira possível. Aqui na MJV, entendemos que gerar valor não está relacionado somente ao dado em si, mas sim em dar um panorama correto e real para o cliente. É por isso, inclusive, que Design Thinking é um dos nossos pilares, que imprime em nosso DNA o foco no humano.
Depois de algumas rodadas desse ciclo, entramos no Project End – a finalização do projeto.
- Project End
É o momento que o cliente mais espera! É quando entregamos o valor para ele de uma maneira efetiva.
Nota: como rodamos dentro da metodologia Ágil em todos os nossos projetos, não pense que somente aqui o cliente terá contato com o projeto. Em todas as etapas, a participação do cliente é efetiva para validar e cocriar conosco. E isso faz toda a diferença!
Design Driven Data Science
Baseado nesse casamento de Design Thinking com Data Science, criamos um modelo chamado Design Driven Data Science. É uma abordagem para a inovação fundamentada nos pilares de Data Science e do Design Thinking.
Essa combinação pode proporcionar às empresas maior agilidade e assertividade na transformação de dados em produtos e serviços inovadores.
O modelo MJV de Data Science orientado pelo design consiste em 3 etapas:
- Empathize & Define: reenquadramento de desafios estratégicos às
organizações sob perspectiva humanizada e baseada em dados.
- Discover & Model: emprego de métodos e algoritmos matemáticos para
gerar insights a partir dos dados e criar soluções robustas e criativas para os
desafios propostos.
- Prototype & Deploy: tangibilização de soluções em novas ofertas de produtos
ou serviços baseados em dados que excedem as expectativas de clientes e
usuários finais.
Bônus: 4 pontos de atenção para implementar seu projeto de dados!
Sem sombra de dúvida, vale anotar no caderninho! Vamos lá.
1 – Coleta de Dados
Primeiro, é necessário coletar os dados que estão disponíveis.
2 – Base Centralizada
Ter uma base centralizada que seja ground truth (verdade absoluta), ou seja, uma base que seja totalmente confiável.
Importante: isso facilita na hora de acessar a confiabilidade do dado. Um monte de planilhas espalhadas não vai ajudar em nada.
3 – Construção de um Data Lake
O Data Lake nada mais é do que um sistema ou repositório de dados armazenados em seu formato natural.
Importante: essa fonte vai garantir um processo de qualidade de dados e vai gerar a organização necessária para que todas a áreas entendam os dados que estão na sua base.
4 – Garantir a qualidade dos dados
Isso é fundamental! Só é possível trabalhar com dados que são confiáveis. Sem qualidade, o modelo não funciona, o que acarreta em insights equivocados para a tomada de decisão.
Voltar