A pesquisa farmacêutica precisa de adestradores de dados

Por Fabio Alves, Diretor da divisão de HPC (High Performance Computers) da Hewlett Packard Enterprise no Brasil

Lightspeed é o nome de um projeto que lançou no mercado uma vacina contra a COVID-19 em velocidade recorde. No entanto projetos excepcionais desse tipo não devem esconder o fato de que o desenvolvimento de novos medicamentos geralmente só progride em um ritmo muito lento – demorando, em média, 13 anos desde a ideia até a primeira aprovação. Um dos desafios aqui são as enormes quantidade e variedade de dados descentralizados que precisam ser analisados em estudos clínicos de medicamentos, todos estritamente regulamentados por leis e padrões da indústria.

O desafio da análise de dados


O volume de dados em empresas farmacêuticas baseados em pesquisa há muito atingiu dimensões de petabyte. Além do volume absoluto, é um conjunto de dados extremamente heterogêneo: há dados estruturados na forma de medições farmacodinâmicas (dosagem, valores sanguíneos, valores hepáticos etc.) ao lado de dados não estruturados (fotos, raios x, varreduras de tomografias computadorizadas etc.). Além dos resultados dos testes dos ciclos iterativos de um ensaio, há informações pessoais sobre sujeitos e pacientes, dados organizacionais e a comparação com resultados de pesquisas existentes – e isso, dependendo do programa de estudo, para centenas ou mesmo milhares de sujeitos. Em estudos de fase IV, que visam detectar efeitos colaterais muito raros depois que um medicamento é lançado no mercado, pode haver dezenas ou centenas de milhares de participantes.

Esses dados são gerados em várias organizações. Nos testes, as empresas farmacêuticas cooperam com parceiros, como universidades e organizações de pesquisa contratadas. Como consequência, existem requisitos extraordinários com relação a armazenamento, acesso, distribuição e análise de dados. As empresas e instituições pesquisadoras devem ser capazes de trabalhar com os dados coletivamente – às vezes, além das fronteiras nacionais – e em conformidade com os regulamentos de proteção de dados.

Além disso, é crucial avaliar os massivos dados o mais rápido possível, para acelerar o tempo de lançamento no mercado. Entretanto nenhuma plataforma de computação é igualmente adequada a todas as cargas de trabalho. Um sistema de computação de alto desempenho (HPC ou High Performance Computing) com processadores convencionais (CPU) poderia, por exemplo, ser ideal para modelagem farmacocinética; já uma análise de aprendizado de máquina roda significativamente mais rápido com processadores gráficos (GPU).

Nova arquitetura de dados necessária


As organizações de pesquisa, portanto, precisam de uma arquitetura de dados que seja projetada para emparelhar uma enorme quantidade de dados de forma flexível com a capacidade de computação mais adequada – tanto CPU quanto GPU, seja no data center de uma empresa farmacêutica, seja em empresa parceira, seja na nuvem.

A arquitetura de dados deve ser altamente escalável e capaz de mesclar logicamente bancos de dados heterogêneos e globalmente distribuídos em um data lake – com um Namespace uniforme entre os locais (veja imagem abaixo). Isso permite que equipes de pesquisa de diferentes organizações acessem conjuntamente os pools de dados – mas apenas aqueles que são aprovados para eles. O pré-requisito para isso é a multilocação e um modelo de segurança uniforme. Isso é necessário para garantir a conformidade com padrões como GxP, que são diretrizes de boas práticas estabelecidas pela Food and Drug Administration dos EUA. A flexibilidade multiplataforma só é possível se os dados forem seguros, rastreáveis ​​e íntegros.

Uma chamada malha de dados unifica fontes de dados distribuídas e heterogêneas em um único namespace. É o centro por meio do qual os locais de pesquisa, serviços em nuvem e empresas parceiras são integrados em um ciclo de dados – como fornecedores ou como destinatários de dados e análises. (Fonte: HPE)

A capacidade de mover aplicativos entre ambientes HPC, por exemplo, para poder terceirizá-los durante cargas de pico, também traz enormes vantagens. O método escolhido aqui é a conteinerização, no qual os aplicativos são executados em ambientes protegidos (contêineres) próximos ao sistema operacional. Isso permite que os ambientes sejam configurados e desmontados rapidamente, e possibilita a migração de cargas de trabalho sem problemas, por exemplo, para a nuvem e vice-versa. Em um ambiente de contêiner, você tem acesso uniforme a todas as bibliotecas e dependências sem ter de gerenciar cada plataforma individualmente – isso é particularmente útil, se elas forem criadas dinamicamente na nuvem e, em seguida, removidas.

Em termos de custos, outro fator representa um grande progresso para as empresas farmacêuticas: os provedores de TI estão mudando a fim de fornecer recursos de hardware (computadores, armazenamento, redes) como um serviço, não apenas através da nuvem, mas nas instalações do cliente. Os modelos de licença sob demanda permitem que o cliente obtenha recursos em curto prazo e pague por eles com base no uso real (veja a imagem abaixo). Isso estende a agilidade da nuvem pública para o data center corporativo.

Os provedores de TI estão mudando para fornecer infraestrutura de TI como um serviço, não apenas por meio da nuvem, mas também localmente nas instalações do cliente. Os recursos podem ser obtidos em curto prazo e são pagos com base no uso. Isso estende a agilidade da nuvem pública para o data center corporativo. (Fonte: HPE)

Exemplo prático


Na pesquisa cotidiana, poderia ser assim: para a terceira fase de um estudo clínico duplo-cego com 2.000 sujeitos de teste, uma clínica universitária usa o cluster HPC interno, que é otimizado para seus aplicativos de análise interna. Vários laboratórios especializados recebem autorização para enriquecer determinados pools de dados com os seus próprios resultados laboratoriais via acesso remoto. Para a avaliação baseada em IA de varreduras de tomografia computadorizada, a clínica usa capacidades ativadas temporariamente de sistemas baseados em GPU – no entanto, para comparação estatística com os resultados da segunda fase de teste e busca de anormalidades, ela executa o aplicativo de aprendizado de máquina em uma nuvem privada hospedada em um provedor de serviços local.

Nesse cenário, dois fatores economizam um tempo valioso no caminho para o lançamento no mercado da nova droga: em primeiro lugar, a utilização do ambiente computacional mais adequado em cada caso e, em segundo lugar, a capacidade de realizar etapas de trabalho externamente e, portanto, em paralelo, sem perdas por atrito e de acordo com as normas e regulamentos. Um efeito colateral positivo: graças ao licenciamento sob demanda dos pools de recursos, a empresa sempre mantém o controle sobre os custos – sem ter de investir pesado em sistemas HPC com antecedência, como acontecia anteriormente.

Disponibilidade de mercado mais rápida


A arquitetura de dados certa pode reduzir significativamente o tempo de lançamento no mercado – de preferência em combinação com três outros fatores. Em primeiro lugar, com a conteinerização para disponibilizar os aplicativos no local necessário e evitar sobrecarregar os sistemas HPC locais. Segundo, com uma arquitetura de segurança multilocatária para colaboração compatível entre a comunidade de pesquisa. Em terceiro lugar, com pagamento baseado no consumo para recursos de computação, armazenamento e rede. Com essa abordagem, uma empresa farmacêutica pode monetizar os resultados de seu trabalho de pesquisa mais cedo – e por mais tempo, à medida que aumenta a vida útil até o vencimento da patente. O lançamento mais rápido de novos medicamentos no mercado não é uma ciência espacial, mas simplesmente o resultado de conceitos de sourcing inovadores e uma arquitetura de dados inteligente.

O que os dados podem nos revelar sobre tendências no futuro?

Por Oscar Pettezzoni, diretor da Visa Consulting & Analytics

Começo este artigo com uma reflexão simples sobre o poder dos dados. Imagine que você esteja planejando uma viagem para a praia com a sua família no fim de semana. É bem possível que sua primeira providência seja entrar em um site especializado na previsão do tempo para ver se há chances de chover ou de o tempo estar nublado. Depois, consultar um app para saber se o trânsito está bom no dia da viagem. Não há dúvidas de que tudo isso influenciará a sua decisão de pegar ou não a estrada.

Hoje em dia, temos à disposição uma infinidade de informações que nos ajudam a decifrar cenários e dar mais clareza sobre o que pode vir adiante. Claro que não temos, com isso, o dom de prever o futuro, mas os dados misturados à capacidade humana de interpretá-los compõem um bem valioso na hora de entender mudanças de comportamento, avaliar riscos e visualizar tendências.

Quando transferimos essa lógica para as relações comerciais, o grande desafio – tanto do lado de quem compra quanto de quem vende – é tratá-los de forma ágil, personalizada e segura. Em interações digitais e físicas, trocamos informações o tempo todo em atendimentos, preenchendo formulários, no processo de compra. O resultado é a multiplicação dos dados e das interações em uma velocidade cada vez mais acelerada.

A questão é que essas amostras que temos em mãos envelhecem muito rápido também. Ou seja, no fim das contas trabalhamos com dados do passado. Na área de investimento, onde atuei por muito tempo, a gente costumava dizer que rentabilidade passada não significa garantia de retorno futuro. A mesma coisa vale para os dados: com acesso mais democrático a informações em tempo real, o comportamento do consumidor também se torna mais dinâmico, volúvel e sua tomada de decisão mais imediata.

Aí vem uma pergunta crucial: como acompanhar esse movimento frenético e resolver essa equação?

Como disse, é fundamental ser ágil, preciso e garantir a segurança da interação. Sem dúvida, dados e informações são importantes como base de apoio para modelar o futuro, dando maior previsibilidade em relação aos fatos. Mas eles sozinhos não fazem mágica! E é aí que entra em ação a inteligência artificial no esforço de identificar o momento certo em que o consumidor muda de vida, de interesses, de status financeiro. Quando ele, por exemplo, tem um filho e passa a ficar mais em casa, deixa de viajar, ir a bares e restaurantes. É como se a IA fosse capaz de detectar tendências de comportamento e apontar para o futuro. E podemos fazer bom proveito disso em nossos negócios no dia a dia.

Além disso, tem um fator indispensável: o ser humano. Nada substitui a interação humana. Por mais que a gente aplique modelagens automatizadas, as conversas com clientes, a experiência de mercado, a sensibilidade e intuição fazem a diferença. E ter acesso a esses dados pode nos ajudar nesse feeling diário.

Assim, conseguimos dar mais previsibilidade de cenário aos nossos clientes (Comercios, empreendedores, emissores, adquirentes) e apoiar na elaboração de suas estratégias. Conseguimos minimizar ao máximo uma tomada de decisão equivocada. Há um movimento interessante na indústria de pagamentos no sentido de tornar cada vez mais acessível um conjunto de dados e informações, sobretudo para pequenas e médias empresas. Ter acesso a essa riqueza de dados faz grande diferença.

Pensando nisso, vejo ao longo de 2021 alguns caminhos que parecem pavimentados e valem estar em nosso radar:

• Jornada de decisão de consumo mais digital. Mesmo sem efetivar a compra no e-commerce, você se informa, com1para e vê avaliações no ambiente on-line.

• Múltiplos pontos de contato. O consumidor está mais exigente e busca um atendimento consistente em todos os canais.

• Encurtar o processo de compra. Aqui entra a relevância dos dados para otimizar o checkout, mantendo agilidade e segurança na checagem das informações.

• Mensagem certa na hora certa. Com a análise dos dados, é possível fazer a oferta personalizada no momento que o consumidor mais precisa.

Com o acesso mais democrático a informações, os consumidores mudam suas decisões e escolhas cada vez mais rápido e as empresas devem se adaptar para acompanhar esse movimento. Nos projetos que desenvolvemos na Visa sem dizemos que nunca foi tão bom ser um consumidor e nunca foi tão difícil e complexo ser um comerciante. O cliente deseja tudo, em todo lugar e a qualquer hora. Num mundo saturado de dados, ler as entrelinhas da informação se tornou um desafio enorme.

Gartner prevê que gastos globais com infraestrutura de Data Center crescerão 6% em 2021

De acordo com a mais recente pesquisa do Gartner, Inc, líder mundial em pesquisa e aconselhamento para empresas, os gastos mundiais com infraestrutura de Data Center devem chegar a 200 bilhões de dólares em 2021, o que representa um aumento de 6% em relação ao número esperado para este ano. Segundo a pesquisa, a expectativa é uma queda de 10,3% nos gastos dessa área em 2020 devido à restrição de fluxo de caixa por causa da crise atual. A previsão indica que, apesar do declínio provocado pela pandemia de Covid-19, o mercado d e Data C enter deve retomar o ritmo de expansão rapidamente, com crescimento contínuo, ano a ano, até 2024.

“A prioridade para a maioria das empresas em 2020 é manter as luzes acesas, o que tem feito com que investimentos em Data Centers sejam postergados até que o mercado entre no período de recuperação”, diz Naveen Mishra, Diretor Sênior de Pesquisa do Gartner. “Nossa projeção é que os maiores centros empresariais pausem temporariamente seus gastos e retomem os planos de expansão ainda este ano ou no início do pr&oa cute;ximo ciclo. No entanto, as empresas de destaque, conhecidas como hiperescaladoras, continuarão com seus planos de expansão global, com investimentos contínuos em Nuvem Pública”.

Os bloqueios provocados pela pandemia de COVID-19 impedirão a construção de mais de 60% das novas instalações planejadas inicialmente para 2020, razão pela qual a receita de infraestrutura do segmento de Data Center diminuirá 10,3% em 2020. Os gastos de usuários finais devem crescer na casa de um dígito a partir de 2021.

Gastos com infraestrutura de Data Center em todo o mundo (em bilhões de dólares)

 201920202021
Gastos de usuários finais (em bilhões de dólares)210188200
Crescimento (%)0,7-10,36,2

Fonte: Gartner (Outubro de 2020)

“Grande parte da redução da demanda deste ano deve retornar em 2021, quando as equipes estarão presentes fisicamente nos escritórios”, avalia Mishra. “Por enquanto, todos os segmentos de infraestrutura de Data Center estarão sujeitos a medidas de contenção de custos e as áreas de compra das empresas devem estender os ciclos de vida dos equipamentos instalados”.

Com a lenta melhora no crescimento econômico, os gerentes de infraestrutura de Data Center deveriam priorizar um conjunto selecionado de clientes novos e existentes. O Gartner recomenda, especificamente, que as empresas:

1) Treinem a força de vendas para que esses vendedores consigam se envolver com o diretor financeiro (Chief Financial Officer – CFO) e o diretor de compras dos clientes em um novo conjunto de iniciativas para otimização de custos, como renegociaç ã o de contratos de TI, redução de custos de Nuvem e consolidação de TI.

2) Elaborem um manual do setor que ajude os fornecedores de tecnologia a entenderem o impacto da COVID-19 em uma gama de setores diferentes para, então, recomendar ações de curto a médio prazo para os fornecedores em cada setor.

3) Invistam em um novo modelo go-to-market, com características que atendam operações nativamente digitais e sejam capazes de impulsionar a inovação. Valorizem as soluções de TI híbrida e com preços baseados em consumo para melhorar o compartilhamento de ideias com os clientes nativos digitais.

Fligoo anuncia aporte Series A de R$ 40 milhões

A Fligoo, startup de análise avançada de dados, com sede em São Francisco, no Vale do Silício, e clientes como Coca Cola, Itaú, Walmart e B2W, anuncia aporte de R$ 40 milhões, liderado por family offices americanas e brasileiras. O investimento será dedicado ao crescimento das operações da empresa, tendo o Brasil como um dos principais focos. A Fligoo usa inteligência artificial, big data e machine learning para fornecer informações preditivas sobre o comportamento do consumidor e otimizar estratégias de negócio. Grandes empresas de mercados como o financeiro, de bens de consumo, varejo, educação e telecom confiam na Fligoo e seus mais de 4 mil algoritmos proprietários para tirarem proveito do recurso mais valioso do nosso tempo: os dados.

“Diferentemente de muitas startups, temos uma operação que apesar do nosso crescimento acelerado gera caixa. Na Fligoo não acreditamos no modelo de encher o cofre de dinheiro de venture capitalists para logo ser refém dos seus ‘terms’. Preferimos crescer o nosso business global a passos naturais e por meio do nosso network”, afirma Carlos Naupari, CEO da Fligoo no Brasil. A operação local da startup cresceu 400% na pandemia. “Depois dos Estados Unidos, em que já temos toda a operação rodando, o Brasil é o país mais importante para nós no momento e é aqui que está o maior potencial para nos tornamos o próximo unicórnio.”

A Fligoo nasceu em 2013, logo depois de um dos fundadores usar o seu conhecimento em computação para fazer um experimento diferente: analisar o comportamento online da mãe da sua então namorada. O objetivo? Descobrir o presente de Natal ideal. O perfume escolhido caiu em cheio no gosto da sogra que se tornou uma das principais apoiadoras do casamento que aconteceria anos depois. O episódio foi o embrião da Fligoo que ao longo dos anos evoluiu de um mecanismo capaz de indicar os melhores presentes a amigos e familiares para um framework proprietário de 4 mil algoritmos, desenvolvido com engenheiros do MIT, que ajuda grandes empresas a usar seus dados de forma segura para incrementar vendas, reduzir a perda de clientes, prevenir fraudes e otimizar processos, como análises de crédito.

A tecnologia da Fligoo se integra aos servidores existentes do cliente de forma remota e entrega resultados que conseguem superar o ROI de projetos ou iniciativas desenvolvidos internamente. A Fligoo usa AI para criar modelos preditivos do comportamento do consumidor. Esses usam vários métodos, incluindo florestas de decisão aleatórias, redes neurais e aprendizagem profunda, que permitem determinar qual produto é melhor para qual tipo de cliente, quando este deve ser oferecido, de que forma e por qual canal. O sucesso dessa abordagem é vista nos resultados comerciais que, em média, saltam 25%. Caso de um dos maiores bancos do Canadá que em dois anos de parceria registra mais de US$ 300 milhões em incremento de venda do seu cartão de crédito.

Parte da operação da startup se baseia em Córdoba na Argentina. É lá que ficam os gênios da Fligoo, os seus cientistas de dados, responsáveis pelo desenvolvimento da tecnologia da startup. São cerca de 40 pessoas dedicadas a treinar, testar e aprimorar os seus algoritmos. “Os clientes enxergam os nossos produtos como soluções holísticas que resolvem os seus maiores problemas para crescer e reter clientes . Somos uma alternativa bem vinda ao trabalho das consultorias tradicionais que dizem trabalhar com AI mas no final das contas entregam apenas belos PowerPoints”, afirma Naupari.

Ao longo dos anos, a Fligoo vem chamando a atenção do mercado. Em 2019, por exemplo, a empresa foi uma das sete selecionadas do programa Start Path, da Mastercard, que passou a apresentá-la à sua base de clientes. Hoje, além do hub em Córdoba, a empresa tem operações nos EUA (São Francisco, Nova York e Miami) e em Londres. Por lá, a startup integra o Scale Fintech, iniciativa da PwC para startups financeiras, e do programa de aceleração do Royal Bank of Scotland. Com vagas abertas e crescimento acelerado, a história da Fligoo está apenas começando.

Covid-19 acelera mercado de dados fixos na América Latina, afirma a IDC

Antes da covid-19, as projeções de crescimento dos serviços fixos de dados na América Latina eram de, em média, 10% ao ano de 2019 a 2024. Porém, com a pandemia, a expectativa de crescimento é de 24% acima da previsão, ou seja, de 12,4% ao ano para os próximos quatro anos, estimam analistas da IDC, líder em inteligência de mercado, serviços de consultoria e eventos para os mercados de tecnologia da informação, telecomunicações e tecnologia de consumo.

Com o surgimento da covid-19 as regras do jogo mudaram, a ponto das empresas de telecomunicações serem obrigadas a adiar ou reduzir seus investimentos, explicou Alberto Arellano, gerente de pesquisa em Telecomunicações da IDC México.

Fonte: Latin America Telecom Services Tracker IDC, maio de 2020.

“Somente nos primeiros dois meses de contingência do coronavírus, o tráfego de dados fixos cresceu até 30% e os dados móveis 10%”, afirma Diego Anesini, diretor de pesquisas da IDC América Latina.

“As mudanças na demanda resultaram em uma alta concentração nas redes de acesso do consumidor, devido ao uso de aplicativos para home office e serviços de streaming”, explica.

Mesmo com as mudanças, Luciano Saboia, gerente de pesquisa e consultoria em Telecomunicações da IDC Brasil, afirma que as operadoras conseguiram manter a qualidade dos serviços, tanto para os consumidores como para as empresas, que seguiram desenvolvendo suas atividades. “As operadoras aprimoraram suas ofertas e produtos e ampliaram funcionalidades de colaboração e de conectividade, ajudando os decisores de TI, por exemplo, a enfrentaram o ambiente desafiador. Um exemplo disso é o SD-WAN. Temos visto ofertas recentes combinando conectividade com a disponibilização de devices, como PCs, tablets e smartphones, principalmente para as pessoas que aderiram ao home office, o que reforça a capacidade do mercado em oferecer uma variedade de serviços”, completa.

Para Anesini, as operadoras tiveram que se fortalecer e reforçar principalmente o acesso à infraestrutura de ponta e seu desempenho.

O Chile liderará o mercado de 5G na América Latina.

No caso das redes móveis, o Chile se colocou como o país com maior avanço para as redes de quinta geração (5G), ao anunciar a primeira licitação desta frequência para outubro próximo, visto que seu principal uso será comercial, destacou Anesini.

Enquanto isso, Brasil e México anunciaram que, devido à complicações técnicas e financeiras causadas pela pandemia, a licitação do 5G será realizada até o próximo ano. “No Brasil ainda temos questões a serem definidas, como os participantes do leilão. Além das operadoras, existe uma grande quantidade de provedores regionais querendo usar a frequência do 5G para comercializar seus serviços”, explica Saboia. Segundo ele, fatores econômicos como a capacidade de investimento dos players, a capacidade do país para absorver os serviços e o ecossistema para utilizar a tecnologia no segmento também precisam ser definidos.

“Embora o México já tenha feito os primeiros testes, o leilão foi atrasado e as operadoras continuam desenvolvendo sua rede 4G”, destacou Alberto Arellano.

No caso da Argentina, seu desenvolvimento será mais lento devido à redução dos investimentos, principalmente após o ciclo de congelamento de preços dos serviços de telecomunicações que ocorrerá de 1º de setembro a 31 de dezembro, disse Sebastián Novoa, analista sênior da IDC do mercado argentino.

Gartner: 65% da população mundial terá dados pessoais protegidos por regulamentações de privacidade até 2023

Em 2023, 65% da população mundial terá seus dados pessoais protegidos por algum tipo de regulamentação de privacidade digital, como a Lei Geral de Proteção de Dados Pessoais (LGPD), que está entrando em vigor no Brasil. Esta é a projeção da mais recente pesquisa do Gartner, Inc., líder mundial em pesquisa e aconselhamento para empresas, que indica um crescimento exponencial comparando com os dados atuais, uma vez que, em 2020, apenas 10% da população está protegida digitalmente por algum tipo de norma ou lei.

“Com mais países implementando leis de privacidade baseadas no regulamento da GDPR (General Protection Data Regulation, em inglês), é fato que o mundo caminha para adotar a linha europeia como o padrão global para lidar com informações pessoais”, diz Nader Henein, Vice-Presidente de Pesquisas do Gartner. “Os órgãos de controle estão instituindo normas de privacidade que buscam paridade com o GDPR. Esses regulamentos permitem que países inteiros estejam mais próximos de alcançar a adequação com a União Europeia, onde suas empresas podem se beneficiar de um mercado maior e com o novo status de ‘confiável’.”

Segundo o Gartner, ainda que algumas organizações ainda se mantenham concentradas na otimização de custos por conta da pandemia global COVID-19, é fundamental que as companhias incorporem o quanto antes as novas necessidades de um cenário de privacidade em rápida evolução na estratégia de dados de seus negócios. “Os líderes de gerenciamento de segurança e risco (SEM – de Security and Risk Management, em inglês) precisam ajudar suas empresas a adaptarem as práticas de tratamento de dados pessoais sem expor os negócios a perdas por meio de multas ou danos à reputação”.

Os analistas do Gartner alertam que os líderes de Segurança e Gestão de Risco precisam implementar o quanto recursos que suportem o aumento do volume de dados, assim como maior variedade e velocidade para os controles, implementando um programa completo de privacidade que seja capaz de gerenciar três estágios na gestão de informações: Estabelecimento, Manutenção e Evolução.

1) Estabelecimento – Segundo o analista Henein, o primeiro estágio para a implementação de programas de privacidade nas empresas é o Estabelecimento, no qual são mapeados recursos básicos e tecnologias para a condução de um programa de gerenciamento de dados. Esse mapeamento é necessário para qualquer companhia voltada para os clientes e que processe informações pessoais. Isso inclui a descoberta e o enriquecimento que permitem que as empresas estabeleçam e mantenham registros de riscos à privacidade.

2) Manutenção – O estágio seguinte, o de Manutenção, no qual as organizações dimensionam seus programas de gerenciamento de privacidade. Esse passo se concentra na administração contínua e no gerenciamento de recursos necessários para a realização das análises. Isso inclui melhorar o tempo de respostas a incidentes que violem dados pessoais, bem como trazer automação para avaliações de impacto de privacidade.

3) Evolução – A etapa de Evolução inclui ferramentas especializadas, buscando recursos que que se concentram na redução do risco de privacidade com pouco ou nenhum impacto no uso de dados. Um dos recursos mais populares permite que as organizações extraiam insights sobre seus consumidores de grandes bases de dados sem expô-los a riscos excessivos de privacidade. Esse tem sido um recurso crítico para as equipes de marketing.

Efeito Coronavírus na indústria coloca em xeque a Transformação Digital e a cultura do Data Driven

Por Anderson Aoca

A humanidade está enfrentando uma das situações mais desafiadoras dos últimos tempos. As restrições, como consequência da pandemia do Coronavírus, nos obrigaram a colocar em prática a capacidade de criação tanto para combater os desdobramentos da crise, quanto o vírus.

Como resultado, houve a aceleração de transformações, que aconteciam a passos mais lentos. Neste sentido, a digitalização de processos ganhou uma velocidade até extraordinária e avançou anos em alguns meses. Mas, qual o impacto da indústria com esse impulsionamento? Como foi afetada a base da economia sob o ponto de vista da aceleração da digitalização, uma vez que essa indústria estava construindo sua Transformação Digital de forma morosa e vagarosamente?

As mudanças no formato de trabalho afetaram drasticamente o setor industrial, principalmente as indústrias de manufatura e processos, que têm como característica uma produção que necessita da supervisão quase que constante de pessoas para tomar decisões e intervir quando necessário. Aqui, a adoção do home office foi um desafio, não do ponto de vista dos profissionais, mas dos processos de negócio, que não estão 100% digitalizados e integrados.

Em sua maioria, as informações são alimentadas, manualmente, em planilhas, por diversas fontes, ocasionando a falta de confiabilidade nas informações e disponibilidade do seu percurso para garantir a fluidez do processo desde o chão de fábrica. Isso demanda a checagem dos dados para validação, o que é dificultado à distância. Sob o ponto de vista da produtividade, o desafio é digitalizar os trabalhos manuais integrando-os horizontalmente, e não apenas ter uma digitalização vertical, como normalmente ocorre.

Neste contexto, quando falamos em transformar digitalmente os processos, se faz necessária a criação de uma indústria orientada a dados, ou seja, é preciso aplicar a cultura Data Driven. Porém, para que isso aconteça, é preciso que os profissionais de dados trabalhem integradamente com os especializados em automação e processos de fabricação para que os sistemas sejam construídos de forma consistente e segura. O modelo permitirá obter ecossistema 100% digital, abrindo caminho para os nomeados Gêmeos Digitais das operações.

No contexto da manutenção, outras tecnologias se farão necessárias, como o Machine Learning, o Deep Learning e a Inteligência Artificial, que conectadas por meio do IoT (Internet das Coisas) permitirão o acompanhamento de equipamentos e, como consequência, a geração de predições, uma tendência que também foi acelerada, ainda que timidamente, pela situação pandêmica.

De forma geral, o Coronavírus acelerou a Transformação Digital à fórceps e demandou da indústria a necessidade de conhecimento e entendimento do seu nível de maturidade do ponto de vista da tecnologia e dos dados para, a partir disso, construir um plano de ação para tornarem-se indústrias Data Driven. É um caminho sem volta e, uma coisa é certa, trará muitos benefícios!

Anderson Aoca, gerente de Indústria 4.0 da Engineering, companhia global de Tecnologia da Informação e Consultoria especializada em Transformação Digital.

Kearney abre processo para seleção remota de estagiários em Data Analytics

A Kearney, uma das maiores consultorias globais de gestão de negócios, com mais de 95 anos de trajetória, abriu inscrições para o seu processo seletivo para estudantes de graduação. A companhia, que há 25 anos atua junto a grandes corporações no Brasil, oferece oportunidades de estágio em Data Analytics neste semestre.

Este ano, devido ao cenário imposto pela pandemia da Covid-19, a Kearney adequou todo o processo seletivo, substituindo o tradicional roadshow por webinars e etapas presenciais por fases online.

O perfil elegível ao processo considera candidatos com conhecimentos em ciência de dados e formatura de graduação entre dezembro de 2021 e dezembro de 2022.

Pietro Alves, recrutador da Kearney, destaca que a empresa busca estudantes que possuam contato com Data Analytics, Análises Preditivas e Problemas de Otimização. “Acreditamos no potencial dos estudantes de graduação que já estejam familiarizados com o tema. Caso qualquer candidato tenha dúvidas sobre o seu nível de domínio, encorajamos a participação. Teremos a oportunidade de avaliar os desempenhos individualmente ao longo das etapas”, sugere.

A companhia não restringe os cursos. O processo é aberto a estudantes de qualquer curso e escola – desde que se enquadrem no perfil de formatura proposto e tenham o conhecimento nessa área específica.

“O processo teve suas etapas adaptadas às necessidades impostas pelo isolamento social, mas seguirá uma estrutura semelhante à do modelo convencional”, explica Sandra Strongren, gerente sênior de Recursos Humanos da Kearney no Brasil. Pietro explica que o processo seletivo não contará com a dinâmica em grupo, etapa tradicional da segunda fase do recrutamento on campus da Kearney, mas trará uma etapa com um assessment em Analytics aliado a uma entrevista técnica, seguidos de entrevistas com resolução de caso até a fase final.

Inscrições

Os interessados em conhecer um pouco mais da consultoria e participar do processo seletivo devem fazer suas inscrições através do site http://bit.ly/kearneypainelvagas até o dia 10/09.

Os primeiros webinars acontecem ainda em agosto. O primeiro deles está marcado para o dia 26 de agosto, às 18h (http://bit.ly/kearney26ago – senha: kearneywebinar1). O segundo acontece em 28 de agosto, às 12h (http://bit.ly/kearney28ago – senha: kearneywebinar2). Os interessados já podem clicar nos links e adicionar os lembretes em sua agenda através do botão “Add to my calendar”. Na última semana de inscrições, a companhia ainda fará mais duas sessões de webinar, nos dias 8 e 9 de setembro.

Recrutamento online

Desde o início do isolamento social, em março deste ano, a Kearney já está em seu terceiro processo de seleção e somou nove novos estagiários ao seu quadro de consultores.

Estudo da IBM mostra que contas comprometidas de funcionários levaram às violações de dados mais caras durante o ano passado

IBM Security anunciou os resultados de um estudo global que examina o impacto financeiro das violações de dados, revelando que uma violação custa, na média global, US$ 3,8 milhões para as companhias, e contas comprometidas de funcionários foram a causa mais cara. Ao analisar as violações de dados sofridas por mais de 500 organizações pelo mundo, 80% dos incidentes estudados resultaram na exposição das informações de identificação pessoal de clientes (PII). Entre todos os tipos de dados expostos nessas violações, as informações pessoais de cliente também foram as mais caras para as empresas.

O relatório aponta as perdas financeiras que as organizações podem sofrer caso dados sejam comprometidos, à medida que companhias acessam cada vez mais dados sensíveis por meio do trabalho remoto e operações de negócios na nuvem. Um outro estudo da IBM descobriu que mais da metade dos funcionários que começaram a trabalhar em casa devido à pandemia não recebeu novas orientações sobre como lidar com as informações pessoais de cliente.

Patrocinado por IBM Security e conduzido pelo Instituto Ponemon, o Relátorio de Custo da Violação de Dados 2020 (Cost of Data Breach 2020) é baseado em entrevistas realizadas com mais de 3.200 profissionais de segurança em organizações que sofreram alguma violação de dados durantes o último ano.[1] Algumas das principais descobertas do relatório incluem:

· Tecnologia inteligente reduz custo de violações pela metade: empresas que implementaram tecnologias de automação de segurança (que utilizam IA, análise de dados e orquestração automatizada para identificar e responder aos eventos de segurança) tiveram menos da metade dos custos de violação de dados quando comparadas às que não implementaram essas ferramentas – US$2,45 milhões vs US$6,03 milhões, em média.

· Pagamento pelas credenciais comprometidas: em incidentes nos quais atacantes acessam a rede das corporações usando credenciais comprometidas ou roubadas, as empresas viram o custo de violação de dados ser quase US$1 milhão mais alto em comparação à média global, chegando a US$4,77 milhões por violação. Ataques maliciosos, que exploram a vulnerabilidade de terceiros, foi a segunda origem com maior custo (US$4,5 milhões) para esse grupo.

· Custo de mega violações aumenta aos milhões: os custos das chamadas mega violações, nas quais mais de 50 milhões de registros são comprometidos, subiram de US$388 milhões para US$392 milhões. Violações nas quais 40 – 50 milhões de registros foram expostos custaram para as empresas US$364 milhões em média, um aumento de US$19 milhões comparado ao relatório de 2019.

· Ataques de estado-nação (nation-state) – a violação mais prejudicial: as violações de dados que possam ter sido originadas dos ataques de estado-nação foram as mais caras em comparação com outros atores de ameaças examinados no relatório. Conhecidos como “state-sponsored attacks”, esses ataques tiveram uma média de U$4,43 milhões em custo de violação de dados, superando os cibercriminosos financeiramente motivados e os hackativistas.

“Quando se trata da capacidade de mitigar o impacto de uma violação de dados, estamos começando a ver uma clara vantagem de empresas que investiram em tecnologias automatizadas”, disse Wendi Whitmore, vice-presidente de IBM X-Force Threat Intelligence. “Em um momento em que as empresas estão expandindo sua presença digital a um ritmo acelerado e a falta de skills no setor de segurança persiste, as equipes podem ficar sobrecarregadas ao proteger mais dispositivos, sistemas e dados. A automação da segurança cibernética pode ajudar a resolver essa carga, permitindo uma resposta mais rápida à violação e significativamente mais econômica.”

Credenciais de funcionários e nuvens configuradas incorretamente: ponto de entrada preferido dos atacantes

Credenciais roubadas ou comprometidas e nuvens com configurações incorretas foram as causas mais comuns de violações maliciosas para as companhias que participaram do estudo, representando aproximadamente 40% dos incidentes. Com mais de 8,5 bilhões de registros expostos em 2019 e atacantes usando emails e senhas previamente expostos em uma a cada cinco violações estudadas, as empresas estão repensando sua estratégia de segurança pela adoção da abordagem de confiança-zero (zero trust) – reexaminado como eles autenticam os usuários e como a extensão de acesso aos usuários são concedidos.

Similarmente, a luta das empresas com a complexidade da segurança – o principal fator de custo de violações – está contribuindo para que as configurações incorretas de nuvem se tornem um desafio de segurança crescente. O relatório de 2020 revelou que os atacantes usaram as configurações incorretas de nuvem para violar as redes em 20% do tempo, aumentando o custo de violações para US$4,41 milhão em média.

Tecnologias avançadas de segurança ajudam os negócios

O relatório destaca a crescente divisão no custo de violações entre empresas que implementaram tecnologias avançadas de segurança e aquelas que estão atrasadas, revelando uma diferença de economia de US$3,58 milhões para companhias com automação de segurança totalmente implementada versus aquelas que ainda não implementaram este tipo de solução.

As empresas participantes do estudo que contavam com automação de segurança totalmente implementada também relataram um tempo de resposta significativamente mais curto às violações, outro fator-chave mostrado para reduzir os custos de violação na análise. O relatório constatou que inteligência artificial, machine learning, análise de dados e outras formas de automação de segurança permitiram às empresas responder a violações até 27% mais rápido do que as empresas que ainda não implantaram a automação de segurança.

A preparação para resposta a incidentes também continua influenciando fortemente as consequências financeiras de uma violação. Empresas que não possuem uma equipe designada ou testes de planos de resposta a incidentes sofrem em média com um custo de US$5,29 milhões em violação, enquanto as empresas que possuem equipes dedicados, testes e simulações sofrem menos de US$2 milhões em custo de violações. Isso reafirma que a preparação e a prontidão geram um ROI significativo em segurança cibernética.

Alguns itens adicionais do relatório desse ano incluem:

· Riscos do trabalho remoto têm um preço – Com modelos de trabalho híbrido criando ambientes menos controlados, o relatório descobriu que 70% das empresas que adotaram o teletrabalho em meio à pandemia esperam que os custo de violações de dados se agravem.

· CISOs culpados pelas falhas por violações, apesar do poder limitado de tomada de decisão: 46% dos entrevistados disseram que o CISO/CSO é responsabilizado pelas violações, apesar de apenas 27% afirmarem a tomada de decisão sobre a política de segurança e tecnologia vem do CISO/CSO. O relatório concluiu que a nomeação de um CISO foi associada com uma de economia de US$145.000 versus a média de custo por violação.

Tendências regionais e por indústria

· O estudo analisou o custo de violações de dados em diferentes indústrias e regiões, descobrindo que as violações de dados nos Estados Unidos são muito mais caras, custando US$8,64 milhões em média.

· No Brasil, o custo médio da violação de dados é de R$5,88 milhões (cerca de US$1,12 milhão), um aumento de 10,5% em relação ao ano anterior comparando o valor em reais (R$ 5,32 milhões em 2019). O estudo também observou um aumento no número de dias para identificar a violação de dados, que subiu de 250 para 265, e para conter a violação, que cresceu de 111 para 115 dias, em comparação a 2019.

· Globalmente, a indústria de saúde continua apresentando os mais altos custos médios de violação, com US$ 7,13 milhões – um aumento de mais de 10% em comparação com o estudo de 2019.

Sobre o Estudo

O Relatório de Custo da Violação de Dados anual é baseado em análises profundas de violação de dados reais, que ocorreram entre agosto de 2019 e abril de 2020, levando em conta centenas de fatores incluindo atividades legais, regulatórias e técnicas para a perda do valor de marca, consumidores, e produtividade dos funcionários.

Para baixar uma cópia do Relatório de Custo da Violação de Dados 2020, visite: ibm.com/databreach

O uso de inteligência de dados na gestão do varejo

Por Guilherme Werneck, CEO do Moki

A pandemia da Covid-19 está fazendo com que novos hábitos de consumo surjam e com que as empresas se adaptem à essas novas ações. Com a população há mais de 60 dias em casa como medida de segurança para prevenir o novo coronavírus, as compras no e-commerce tiveram um salto. Segundo dados da Associação Brasileira de Comércio Eletrônico, as transações feitas pela internet dispararam 40% entre março e abril de 2020. Mas, como manter a sua empresa relevante dentro desse ambiente?

Muitas dúvidas surgem, inclusive em analistas mais experientes. As empresas podem sentir as pressões para manter suas marcas relevantes e reter a lealdade do cliente online e offline.

A conquista de clientes em um mercado tão concorrido pode ser um desafio. Corresponder ao comportamento do consumidor online e offline requer análises avançadas. A relação entre comportamento com a análise baseada em geolocalização pode ser mais um desafio ao agregar os dados para obter informações sobre como otimizar o marketing e os preços para gerar receita.

Constatações como essas exigem mudanças relevantes na forma de pensar e decidir para manter a competitividade. Não apenas no que se refere às vendas e conquista de clientes, mas em todos os processos da organização. As transformações digitais, como a Indústria 4.0, trazem um ambiente físico tradicional para um ambiente digital moderno, unindo vários fluxos de trabalho que podem ser adaptados e dimensionados na velocidade dos seus negócios, sob demanda. Os varejistas também estão realizando a mesma transformação no que está sendo chamado de Varejo 4.0.

Essa transformação para o Varejo 4.0 exige a adoção de uma cultura que privilegie a análise de dados, impulsionada pela enorme variedade de informações e a complexidade das questões que estão sendo propostas.

Mas, apenas captar dados não é o suficiente, é necessário ter a capacidade de acessar e consolidar todos os dados que estão diversos sistemas, garantir sua qualidade e enriquecer a organização com informações de terceiros.

Para obter uma visão precisa você não pode simplesmente confiar apenas na intuição ou nos insights analíticos que se obtém nos dashboards ou nos recursos de relatórios do Excel ou ferramentas de BI.

Para atender à sofisticação que a análise de dados exige, é necessário também fazer um diagnóstico, modelar futuros cenários com análise preditiva, compartilhar informações com a equipe e compartilhar resultados de uma maneira fácil de entender. Garantir informações atualizadas e consistentes, assim como oferecer aos tomadores de decisão autonomia para análise também são fundamentais.

A partir de todos esses requisitos, está sendo implementado no Moki a ferramenta de Inteligência de Dados, fazendo com que os usuários tenham insights mais profundos sobre clientes, transações e operações, em todos os canais, e auxiliando em tarefas fundamentais para essa jornada, com a garantia de dados confiáveis, desenvolvimento de algoritmos e mobilidade de resultados.

Cinco dicas para impulsionar uma estratégia de dados centralizada com o Gerenciamento de Dados Mestres

Por Ricardo Fornari, Country Manager da Stibo Systems no Brasil

Em tempos marcados por processos hiperconectados e demandas que exigem alta disponibilidade e agilidade das empresas, estabelecer uma estratégia de dados centralizada tem se tornado uma demanda essencial para que uma empresa seja capaz de explorar totalmente seus dados. Mas como, afinal, operações complexas e de grande porte podem desenvolver essas ações de forma prática e assertiva?

Em primeiro lugar, a organização deve ser capaz de identificar, combinar e gerenciar várias fontes de informações. Outro passo é construir os modelos de análise mais adequados para prever e otimizar os resultados a serem avaliados. Além disso, porém, é preciso que os líderes tenham a vontade de transformar os processos de seus negócios, buscando formas para que a companhia possa alavancar e converter os ativos digitais em fontes para decisões úteis, com insights que realmente ajudem a melhorar os ganhos da empresa.

Nesse contexto, o apoio das ferramentas de Master Data Management (MDM –Gerenciamento de Dados Mestres, em português) tem se mostrado cada vez mais uma opção prática e essencial. Para definir uma estratégia clara de como usar a análise de dados por meio de soluções de MDM, no entanto, os líderes devem entender que certos pré-requisitos e iniciativas são fundamentais. Pensando nisso, separamos cinco dicas para impulsionar os resultados das organizações modernas:

1) Verifique seu cenário de dados – Todas as organizações são desafiadas pelo crescimento exponencial nos volumes de dados e pela mudança constante de cenários de negócios. Os Chief Data Officers (CDOs) precisam repensar como podem gerenciar e governar suas informações com mais eficiência para garantir vantagens competitivas e cumprir com os requisitos regulamentares. Um dos maiores desafios é identificar todas as fontes de dados – ou melhor, silos de dados – espalhadas pela organização. Isso pode incluir ERPs, CRMs, planilhas, sistemas legados e muito mais. Os silos de dados surgem naturalmente em empresas de médio e grande porte, porque diferentes unidades organizacionais têm suas próprias prioridades, responsabilidades e objetivos. Também podem surgir se alguns departamentos competem entre si em vez de cooperar em direção a objetivos de negócios comuns. Nesse cenário, as equipes geralmente perdem muito tempo extraindo e comparando manualmente os dados extraídos de uma variedade de sistemas.

2) Crie uma única casa para seus dados – Criar uma versão única e centralizada desses arquivos, usando o gerenciamento de dados mestres, ajudará a resolver vários problemas. Com o MDM, por exemplo, os líderes podem gerenciar, centralizar, organizar, categorizar, localizar, sincronizar e enriquecer dados mestres de acordo com as necessidades de seus negócios, apoiando as iniciativas de vendas, marketing e operação de sua empresa. Os dados mestres podem assumir a forma de informações sobre produtos, clientes, fornecedores, locais e ativos, além de outras referências que direcionam seus negócios. O gerenciamento eficiente de dados mestres em um repositório central fornece uma visão autorizada única das informações e elimina ineficiências dispendiosas causadas por silos de dados. Em outras palavras, os usuários podem ter certeza da qualidade e integridade dos dados, além de acelerar significativamente o processo de insight. Isso permite que os líderes confiem nos dados e nas informações o suficiente para basear suas decisões críticas de negócios.

3) Ajuste a governança de dados – Para extrair o valor máximo das informações, também é necessário um forte programa de governança de dados. Esse passo ajuda a desenvolver as informações digitais como um ativo comercial estratégico realmente útil e inteligente. O sucesso de um programa de governança de dados depende de uma infraestrutura robusta que permita a automação, o gerenciamento e a escalabilidade das iniciativas internas. Isso requer a implementação de políticas e processos, controle de versão e aprovações com fluxos de trabalho e regras de negócios integrados para manter a precisão e a responsabilidade das informações. Um fator crucial para ajustar a governança de dados é criar as equipes certas e, no repositório de dados central, usar privilégios de segurança e acesso baseados em funções. Com isso, a organização reduz o risco de pessoas erradas acessarem as informações erradas. Além disso, a empresa protege a qualidade de seus dados, fornecendo direitos de edição e visualização adaptados a diferentes perfis de usuários em seu sistema.

4) Não fique preso ao pensamento tradicional – O universo dos dados mudou imensamente ao longo dos anos. O crescimento exponencial das informações acelerou as oportunidades de obter insights, combinando dados de novas maneiras. O desafio é descobrir como fazer isso. Com o aumento da qualidade e do volume de dados, as empresas podem obter visualizações mais panorâmicas e granulares de seu ambiente de negócios, usando-as para melhorar a experiência dos clientes, processos operacionais e estratégias de negócios. Por exemplo, supermercados podem analisar os padrões de gastos dos clientes e usar dados extraídos das mídias sociais – como impressões e curtidas – para planejar vendas de determinadas mercadorias ou picos sazonais. Uma boa maneira de começar é simplesmente se perguntar o que você poderia fazer se tivesse as informações corretas.

5) Procure formas para extrair mais valor de seus dados – Descobrir novas formas criativas de usar bem os dados existentes não é suficiente. Sua organização precisa entender e confiar em modelos de Big Data. Se a cultura, os recursos e as análises emergentes existentes de uma organização não estiverem alinhados com a forma como ela realmente chega às decisões ou se não fornecer uma maneira clara de atingir as metas de negócios, a análise de dados não funcionará. Os funcionários e gerentes da linha de frente precisam entender como os dados podem ajudá-los. Em outras palavras, as ferramentas de análise precisam ser relevantes e aplicáveis ​​aos seus negócios. Para isso, desenvolva ferramentas simples e intuitivas para a equipe da linha de frente. Os gerentes precisam de métodos transparentes para usar os novos modelos e algoritmos. Se eles não conseguirem ver como as soluções os ajudam a fazer melhor seu trabalho, eles não as usarão.

Vale destacar que, independentemente da facilidade de implementação e implantação, a maioria das organizações precisará atualizar suas habilidades analíticas e alfabetização. Para tornar a análise parte das operações diárias, os gerentes devem vê-las como essenciais para resolver problemas e identificar oportunidades. Os esforços necessários variarão de acordo com os objetivos e a linha do tempo da empresa. Ajustar culturas e mentalidades normalmente requer treinamento abrangente, modelagem de papéis pelos líderes e incentivos e métricas para estimular a adoção.

Os ganhos de uma companhia ao estabelecer uma estratégia de dados centralizada podem ser enormes. Adotar as dicas acima tornará esse processo mais simples e funcional, reduzindo o uso de tempo e recursos. O objetivo deve ser sempre agregar valor e inteligência à gestão, com ênfase nas exigências reais da companhia. Afinal de contas, se os dados são a base dos negócios hoje em dia, quem souber usá-los de maneira ágil estará à frente dos seus concorrentes.

Estudo da IBM: líderes latino-americanos que valorizam a confiança nos dados estão posicionados para superar seus pares

A vigésima edição do estudo da IBM “Build Your Trust Advantage”, divulgado semestralmente, entrevistou cerca de 13,5 mil executivos globalmente para examinar como as empresas chegam a liderança de mercado, enfatizando a confiança na utilização e no intercâmbio de dados.

A pesquisa, conduzida pelo IBM Institute for Business Value (IBV) em cooperação com a Oxford Economics, entrevistou executivos C-level responsáveis por marcas líderes em 98 países e 20 indústrias em todo o mundo, incluindo a América Latina. O estudo mostrou que a liderança de mercado é alcançada com mais frequência quando uma organização estabelece um alto nível de confiança nos dados de seus clientes, em seus processos de negócios e com o ecossistema de parceiros.

Por meio de pesquisas quantitativas e qualitativas, ficou claro que havia um conjunto de líderes que se destacaram por entender que a transparência e a reciprocidade são ingredientes primordiais para ganhar a confiança do cliente, assim como gerar crescimento. Esses líderes aproveitam os dados para gerar confiança nos consumidores, criar uma cultura de tomada de decisão com base em dados, e frequentemente compartilham dados com parceiros do ecossistema sem abrir mão da vantagem competitiva. Também foi descoberto que esse grupo supera seus pares em inovação e gerenciamento de mudanças, assim como em crescimento de receita e lucratividade, oferecendo resultados 165% mais altos.

Esses líderes têm um profundo conhecimento de que construir confiança nos relacionamentos com os clientes é um imperativo estratégico e trabalham fortemente para conquistá-los e mantê-los. De fato:

• 82% dos líderes acreditam firmemente que os dados ajudam a criar uma vantagem
estratégica para fortalecer o nível de confiança do consumidor, bem como seus resultados.

• Os líderes também superam seus pares em 22% na capacidade de respeitar a privacidade dos dados dos clientes como uma vantagem competitiva central.

Isso é extremamente importante no momento em que os consumidores relatam mais preocupações do que nunca sobre a vontade de compartilhar informações pessoais. Um estudo relacionado da IBM sobre privacidade de dados constatou que 81% dos consumidores globais dizem que, no ano passado, se preocuparam mais com a forma como as empresas usam seus dados.

Felizmente, o mesmo estudo constatou que também há uma maior disposição de compartilhar informações com companhias que têm transparência em relação à utilização dos dados: 81% disseram que apoiam ativamente empresas que são transparentes sobre como usam seus dados e evitam fazer negócios com organizações que não o fazem. Como resultado, as companhias que conquistaram a confiança do cliente têm mais probabilidade de reter os dados que possuem. “As organizações líderes que colocam sua confiança no centro da maneira como usam os dados com seus clientes estão criando enormes oportunidades para obter maior sucesso”, disse Mark Foster, vice-presidente sênior de IBM Global Business Services.” As empresas de hoje precisam ser capazes de ganhar a confiança de seus clientes enquanto confiam nos dados de seus próprios processos e ecossistemas, ou eles rapidamente ficarão para trás de seus pares”.

Embora o estudo esteja concentrado na necessidade de transparência em como as empresas lidam com os dados dos clientes, também destaca a importância de confiar nos dados encontrados em uma organização. Foi descoberto que os líderes se esforçam para garantir que os dados dentro das suas próprias paredes sejam precisos e limpos, para que possam tirar proveito deles para tomar decisões mais bem informadas, como desenvolver novos modelos de negócios e entrar em mercados novos ou emergentes.

• Oito em cada dez líderes dizem que eles e seus colegas dependem muito de dados para melhorar a qualidade e a velocidade das decisões que tomam.

• 70% já usam os dados extensivamente para desenvolver novos modelos de negócios (112% a mais que seus pares), enquanto 66% já usam os dados para tomar decisões informadas ao entrar em novos mercados.

• Na América Latina, 14% dos entrevistados estão obtendo os maiores retornos com o uso dos seus dados e superam seus pares em crescimento de receita e lucratividade.

O estudo também revelou uma ênfase na importância da criação de ecossistemas confiáveis. Os dados que simplesmente permanecem dentro da organização têm mais probabilidade de se desviar do que de aumentar seu valor. As organizações líderes estão liberando seus dados e eliminando o risco de trocas de dados em um ecossistema compartilhado, permitindo que circulem amplamente, sem sacrificar a responsabilidade de garantir licenças e protegê-las. Esse comportamento continuará a crescer ao longo do tempo:

• 56% dos líderes já estão adquirindo e compartilhando dados amplamente com sua rede de parceiros e 85% esperam que suas redes de parceiros se expandam nos próximos anos.

• Os líderes esperam que a evolução das plataformas de negócios digitais exija uma nova abordagem para o compartilhamento de dados.

• 62% dos líderes já estão integrando novos modos de monetização em suas estratégias de dados.

Acesse os resultados completos do estudo aqui: http://ibm.co/c-suite-study

ABES e EY trabalham em parceria para evitar multas milionárias da LGPD no Brasil e promover a cultura da gestão de riscos de privacidade

A ABES (Associação Brasileira das Empresas de Software) desenvolveu, em parceria com a EY, a ferramenta Diagnóstico LGPD, software que tem o objetivo de auxiliar empresas a verificarem seu nível de adequação à Lei Geral de Proteção de Dados (LGPD), que entrará em vigor em agosto de 2020, e concluir o processo de compliance em relação aos seus requisitos e exigências. A ferramenta consiste em um questionário por meio do qual as empresas podem fazer uma auto avaliação quanto aos diferentes pontos exigidos pela Lei. Depois de preenchido, um diagnóstico quanto ao grau de adequação da empresa é emitido, junto a sugestões contextualizadas ao resultado. Acesse o link para fazer a auto avaliação de sua empresa: http://diagnosticolgpd.abes.org.br/

“Sabemos que a LGPD tem muitos detalhes que requerem atenção, por isso desenvolvemos, em conjunto com a EY, o Diagnóstico LGPD com o objetivo de educar o mercado a respeito dos impactos da legislação. Muitas empresas ainda desconhecem diversos requisitos e exigências da Lei – inclusive, existe uma falsa concepção, por exemplo, de que a LGPD diz respeito apenas aos dados de consumidores, quando, na verdade, ela engloba todos os tipos de dados pessoais, de clientes a colaboradores. Acreditamos que o Diagnóstico LGPD é uma ferramenta extremamente necessária neste período final de adequação, último momento para as empresas assegurarem compliance e evitarem dívidas milionárias, como as que ocorreram com a GDPR”, explica Rodolfo Fücher, presidente da ABES.

A discussão a respeito da utilização de dados pessoais no mundo digital vem ganhando cada vez mais relevância no mercado mundial, sendo considerada atualmente uma moeda de troca para negócios. Após a criação da General Data Protection Regulation (GDPR) na Europa, foi a vez do Brasil pensar em uma legislação que regulasse as atividades de tratamento dessas informações – e agora, falta menos de um ano para as empresas se adequarem à nova Lei, alterando e ajustando a forma como coletam, armazenam, processam e utilizam dados privados.

“A Lei Geral de Proteção de Dados foi criada com o exclusivo propósito de evitar abuso por empresas e órgãos do governo no uso de dados pessoais dos cidadãos. Estar preparado para a LGPD é necessário não apenas para evitar as multas que podem chegar a até 2% da receita anual da empresa até o teto de R$5 milhões, mas também para garantir os direitos de indivíduos e impor deveres às organizações em relação à coleta, uso, retenção, divulgação e exclusão de informações pessoais. A lei procura com isso, fomentar uma nova forma de se fazer negócio através do desenvolvimento da cultura de governança de riscos de privacidade”, comenta Marcos Sêmola, sócio de consultoria para cibersegurança da EY.

Para utilizar a ferramenta, não é preciso, nem possível, enviar informações pessoais ou referentes à empresa, como nome, CPF/CNPJ, entre outras. Após o preenchimento do questionário, o relatório em PDF é disponibilizado para download com informações referentes ao nível de adequação e com sugestões para melhoria – não é possível acessar este documento posteriormente. Os dados enviados anonimamente relacionados à posição das empresas quanto às exigências da LGPD serão utilizados para a produção de relatórios gerais sobre o cenário de compliance das companhias brasileiras em relação a nova lei. A expectativa é que o primeiro estudo seja lançado em dezembro.

Paradoxo do Blockchain perante a LGPD

Por Rodrigo Pimenta, CEO da HubChain Technologies

Descendente direta do General Data Protection Regulation – GDPR (EU/16), originalmente criado na União Europeia com o objetivo de proteger a privacidade, dados e identidade dos cidadãos Europeus, residentes ou não no bloco socioeconômico, a Lei de Geral de Proteção de Dados Pessoais – LGPD (Brasil/18) entrará em vigor a partir de agosto/20 – unificando todos os regulamentos referentes à privacidade, manipulação e sigilo de informações pessoais. A novidade deverá ser aplicada por qualquer empresa, instituição ou órgão público, que detenha bases pessoais em formato digital e físico no país, sendo instituído para cada vazamento de dados.

Levando em consideração essa implementação, as empresas brasileiras precisarão aplicar melhores práticas de compliance, governança e segurança, como proteção das informações dos titulares, com regras específicas e visibilidade para os mesmos. Além disso, os próprios titulares terão direito a uma explicação de como seus dados estão sendo utilizados e tratados, podendo visualizar, alterar e solicitar o apagamento, assim como autorizar ou proibir compartilhamentos.

Conscientemente, a tecnologia Blockchain, que visa manter a distribuição das informações com confiança e imutabilidade através de um livro-razão digital, poderia ser uma das ferramentas-chave para a implementação da LGPD. Entretanto, mesmo com o objetivo mútuo de oferecer governança, transparência, individualidade e segurança no controle de bases, existem grandes paradoxos que separam estes dois termos.

Como Blockchain é imutável, caso sua arquitetura não tiver sido desenvolvida e orientada corretamente, não atenderá a LGPD, pois retira dos usuários o poder de solicitar exclusão de algo já registrado. Outro ponto é a sua forma descentralizada de separar os dados e informação, que foge da ideia de centralização que a Lei está tentando estabelecer.

Como evitar o retrabalho futuro? De forma técnica, a solução para o problema seria a adoção de 2 tipos de arquiteturas da utilização do Blockchain em conjunto, Blockchain “off-chain” – com dados críticos e sensíveis fora da cadeia dos blocos, somente são armazenados o hash ou local do conteúdo – e/ou Blockchain “side-chain” – em paralelo para cada característica pessoal sensível ou até para cada usuário -, assim se precavendo de que o dado que ainda não foi classificado como sensível, terá o seu expurgo forçado. Além disso, é necessário um checklist técnico para validação da solução em atendimento à LGPD, Consultoria Jurídica de LGPD especializada em Blockchain e também seu inverso uma Consultoria Técnica em Blockchain especializada em LGPD.

Não é impossível mudar esta situação paradoxal, todavia é preciso ocorrer um aperfeiçoamento e remodelação do sistema Blockchain, ou até a sua não utilização, para que se encaixe e facilite a concretização das resoluções impostas pela LGPD. Seria um bom momento para ressaltar a importância de um responsável de Compliance/Governança e Engenharia de Q&A de forma ativa no início, desde o brainstorm, em cada Ciclo de Desenvolvimento de Software, principalmente para startups ou soluções de grande impacto. ‘Privacy by default and by design’.
*Rodrigo Pimenta é engenheiro elétrico formado pela Escola Politécnica da Universidade de São Paulo (USP), Mestre em Administração, Economia, Finanças e Operações pela Fundação Getúlio Vargas (FGV), Autor de publicação de Inteligência Artificial e Algoritmos Genéticos, com experiência de mais de 12 anos no Banco Itaú – onde atuou como um dos primeiros Arquitetos de TI Corporativo, CEO e fundador da empresa HubChain Technologies cujo trabalho pioneiro dedica-se a oferecer soluções inovadoras em DigitalBank, Blockchain, Inteligência Artificial, IoT (Internet das Coisas), OpenBank para startups, médias e grandes empresas. Rodrigo participou de algumas grandes discussões com Blockchain, inteligência artificial e criptoativos e é atualmente um dos maiores especialistas do segmento.

Consequências e desafios da nova Lei Geral de Proteção de Dados (LGPD) para as empresas

Por Sergio Maia

A Lei Geral de Proteção de Dados (LGPD) altera significativamente as obrigações das empresas quanto ao manuseio e tratamento de informações pessoais de seus colaboradores, funcionários de empresas terceirizadas, clientes e fornecedores. E tem a finalidade de aumentar a proteção à privacidade dos indivíduos e o controle sobre seus próprios dados.

Hoje as empresas utilizam big data e analytics para extrair dados de clientes e assim oferecer produtos e serviços de forma mais assertiva, de acordo com gostos e preferências dos consumidores. Um dos principais dispositivos da lei referente a esse ponto é a obrigatoriedade da obtenção do consentimento expresso do titular do dado pessoal nas situações em que ocorrer seu tratamento, como no caso citado. A forma de obtenção desse consentimento pode variar, mas a anuência deve ocorrer.

Caberá à Autoridade Nacional de Proteção de Dados (ANPD) a responsabilidade de acompanhar e fiscalizar se as empresas estão cumprindo com a nova lei. Neste sentido, uma das ferramentas à disposição da Autoridade é um dispositivo que prevê a apresentação de um “Relatório de Impacto à Proteção de Dados Pessoais”, que poderá ser solicitado a qualquer momento pela ANPD e deverá conter, minimamente, a descrição dos processos de tratamento de informações pessoais, bem como medidas, salvaguardas e mecanismos de mitigação de risco. Essa é mais uma forma da ANPD ter visibilidade de como as empresas utilizam dados pessoais para fins de “big data e analytics”.

Assim, a nova lei impactará diretamente todos os setores produtivos da economia, que de alguma forma, faz uso ou mesmo simplesmente coleta dados pessoais, , afetando-os em menor ou maior grau. Empresas de serviços ao consumidor possivelmente terão mais trabalho na adequação à lei, por conta do alto nível de interação com estes e com a vasta cadeia de valor associada à prestação desses serviços. Mas como as empresas podem se adaptar à nova lei? O primeiro passo é sem dúvida um mapeamento criterioso das atividades de cada departamento interno da empresa no tocante à coleta e ao tratamento de dados pessoais. A partir daí a empresa terá uma lista de ações específicas para cada departamento de forma a atender aos requisitos da lei. Depois do mapeamento vem a implementação propriamente dita, que também traz suas complexidades e vai depender das características de cada departamento.

Em uma visão macro a promulgação da lei põe o Brasil no rol de mais de 100 países que poderiam ser considerados adequados para proteger a privacidade e o uso de dados. Essa é uma sinalização positiva e mostra a preocupação do governo em lidar de forma responsável na prevenção de eventos de vazamento de dados em massa noticiados na mídia internacional.

A LGPD terá entre seus principais desafios a missão de conscientizar a sociedade de que “dado pessoal” é um bem de valor que deve ser protegido, sob pena de trazer prejuízos ao indivíduo se for utilizado indevidamente e para fins diferentes do que foi consentido pelo titular, ou seja uma mudança de “mind set”.

Outro ponto é o tempo de adequação das empresas à lei, em princípio fixado para fevereiro/2020, o que é um prazo bem curto, considerando todos os ajustes que as empresas terão de fazer em seus sistemas internos e procedimentos.

A lei oferece múltiplos benefícios, e entre os beneficiários está o titular do dado pessoal, que é ponto focal da Lei. A LGPD traz especial relevância no que se refere à transparência para o uso de dados pessoais, à compatibilização do uso destes com as finalidades informadas e a respectiva responsabilização do agente que os coleta. De forma resumida, significa limitar o uso das informações ao mínimo necessário para que se possa atingir a finalidade pretendida, além de garantir a eliminação dos dados depois de atingida tal finalidade.

Caso a empresa descumpra a lei, ela sofrerá penalidades que incluem: (i) advertência, (ii) publicitação da infração e (iii) multa que pode chegar até 2% do faturamento bruto da empresa, limitada no total de R$ 50 milhões, por infração.

Sergio Maia, gerente de assuntos regulatórios da Hughes

Setor de e-commerce precisa se preparar já para nova Lei Geral de Proteção de dados, alerta ABComm

A partir de agosto de 2020, entra em vigor no Brasil a Lei Geral de Proteção de Dados (LGDP), que dispõe sobre a proteção de dados pessoais na Internet. O e-commerce promete ser um dos mercados mais impactados, já que toda sua atuação se baseia na análise de dados sobre o perfil e a jornada do consumidor.

A Associação Brasileira de Comércio Eletrônico (ABComm) avalia positivamente a legislação, que traz mais poder aos consumidores quanto a coleta e uso de seus dados pessoais e penaliza as empresas que descumprirem as regras. A entidade inclusive teve participação ativa nas discussões para elaboração da lei. Seu Diretor Jurídico, Márcio Cots, participou como consultor técnico de discussões sobre o assunto no Senado Federal.

“A lei será benéfica para todos, pois traz mais transparência e inibe o uso abusivo e indiscriminado de dados pessoais, aumentando a segurança das operações”, afirma Cots. No entanto, ele pontua que empresas de comércio eletrônico devem, o mais rapidamente possível, adaptar suas práticas segurança, compliance e TI, e também treinar pessoas, modificar processos e adaptar documentos para se adequar à futura legislação”. Recomendamos que se busque uma assessoria jurídica para analisar o que está em desconformidade e o que precisa ser alterado. A lei será aplicada somente no ano que vem há um bom tempo pela frente”, informa ele.

Para entender melhor, conheça os três impactos profundos que a LGDP terá sobre as empresas de comércio eletrônico e que merecem especial atenção:

Coleta e uso só de dados com autorização

A nova legislação impede que dados pessoais sejam coletados ou utilizados sem consentimento do usuário. Para recolher informações usando cookies e outras ferramentas, os serviços de e-commerce precisarão de uma autorização específica por parte dos consumidores. Isso atinge não apenas as empresas que dialogam diretamente com os clientes, mas todas as que, por algum motivo, tiverem acesso aos seus dados pessoais, o que inclui serviços de logística, atendimento eletrônico e muitos outros.

“E essa autorização não funciona como um ‘cheque em branco’. As informações poderão ser usadas apenas para a finalidade com que foram coletadas, nada além”, pontua o advogado. “Hoje, as empresas utilizam dados de navegação para sugerir produtos conforme o perfil de cada usuário, compartilhando inclusive suas bases de dados com outros parceiros sem informar ao consumidor. Com a LGDP, este tipo de prática será vetado”.

Mais poder ao usuário

Outra novidade introduzida pela LGDP é que o titular do dado tem o direito de questionar qualquer serviço de e-commerce sobre quais informações pessoais ele armazena e exigir que as mesmas sejam editadas ou excluídas. Pode exigir ainda a portabilidade dos dados. “Isso também difere do cenário que temos hoje. Políticas de privacidade e sistemas de busca terão de ser remodelados”, afirma o advogado.

Penalidades financeiras

A LGDP pressupõe um incremento considerável na fiscalização das empresas por parte da Autoridade Nacional de Proteção de Dados (ANPD), autarquia ligada ao Ministério da Justiça, a fim de evitar o mau uso ou o vazamento de informações pessoais. As penalidades incluem multas que oscilam de 2% do faturamento da empresa até R$ 50 milhões por infração cometida. E não é tudo. “A companhia que insistir em práticas inadequadas pode ter sérios problemas com o ministério público”, informa Cots.

LGPD: bom para a privacidade, melhor para os hackers

Por Francisco Camargo

No Brasil não temos a cultura de analisar ampla e detalhadamente o impacto dos regulamentos governamentais. O que se passa é que os diversos Órgãos públicos geram normas, sem analisar todos os aspetos, e em seguida vemos que os consumidores pagam a conta, como aconteceu, por exemplo, com as tomadas de três pinos, em que não se provou que a inovação melhoraria de fato a segurança elétrica de consumidores, e muitos outros exemplos.

A Análise do Impacto Regulatório deveria ser uma norma obrigatória para qualquer órgão que crie regulamentos, impondo restrições e punições que podem afetar a segurança jurídica e tributária do país.

Mesmo no Legislativo, que leva muito a sério a confecção de leis regulamentadoras, realizando Audiências Públicas, passando os Projetos de Lei por várias comissões, e finalmente aprovando-as, em um processo transparente, passam aspectos não previstos antecipadamente.

Foi isto o que aconteceu com a Lei Geral de Proteção de Dados, baseada no complexo modelo europeu do GDPR.

Por se tratar de um assunto muito recente, de um problema extremamente complexo, que tem impacto na maioria das empresas brasileiras e grande parte da população, é importante trazer à luz detalhes que acabam sendo muito importantes e, às vezes, passam desapercebidos.

A segurança da informação e a proteção de dados foi e continua sendo o calcanhar de Aquiles da nossa sociedade, apoiada cada vez mais em tecnologias digitais e no uso de dados.

Praticamente tudo está armazenado virtualmente, desde fotos em redes sociais até documentos corporativos sigilosos, o que instiga a voracidade de criminosos em burlar essas tecnologias de segurança para obter vantagens, sejam econômicas ou de outra natureza.

Agora, com as novas regulamentações de proteção e privacidade de dados, como a europeia GDPR e a nova LGPD brasileira, a segurança ficou muito mais complexa, pois os invasores terão novos e sérios argumentos para convencerem as empresas a pagarem o preço da chantagem.

Antes das regulamentações, as empresas, vítimas de piratas, que ameaçavam publicar os dados roubados, temiam o dano à sua imagem e o custo dos processos que teriam eventualmente que enfrentar.

Com a nova regulamentação, apareceram as multas pesadas para as empresas vítimas de ataques bem-sucedidos. As penalidades mais incisivas, custos por danos à imagem e indenizações tendem a ser mais altas, pois se as multas são grandes, juridicamente as punições de processo têm que ser equivalentes, o que pode fazer com que a companhia opte por negociar com os piratas, a fim de não permitir que os dados sejam divulgados e o prejuízo seja ainda maior. E isso será um grande estimulo para novos ataques.

Recentemente o Facebook admitiu que 50 milhões de contas foram hackeadas. Imaginem se eles, que investem milhões de dólares em segurança de dados, são vítimas de pirataria, o que aconteceria com empresas menores, no Brasil? É um caso sui generis, em que a lei condena a vítima, e seu agressor pode escapar impune.

A alegação da rede social de Mark Zuckerberg foi que os invasores exploraram uma vulnerabilidade em seu código que permite roubar geradores de senhas de acesso quando os usuários mudam para a visualização dos perfis de “privado” para “público”, por meio do recurso “Visualizar como”.

Seja como for, o vazamento de dados pessoais nunca foi tão desafiador para organizações de todos os portes, o que requer tecnologia avançada, serviços especializados e mudança cultural, dentro e fora das empresas.

Mais do que isso, as regulações vão mudar a forma como se coletam dados (RG, CPF, endereço, renda etc.), com a inclusão de ferramentas contra vazamentos e inclusão de meios que expliquem aos clientes o porquê precisam de determinadas informações, como elas serão usadas e quando serão descartadas. O consentimento tem que ser explícito. Assim, a indicação para que as empresas brasileiras estejam em conformidade com a lei tendo soluções de segurança isoladas não basta. É preciso integrar sistemas com as mais diversas finalidades, o que requer integradores e consultores com apoio técnico de primeira linha e conhecimentos consolidados para entregar projetos que vão ao encontro das novas demandas.

O desafio é grande. Soluções para proteção de dados, criptografia, gerenciamento de logs, firewalls de aplicativo da web, prevenção e detecção de intrusos, sistemas de análise de big data, etc., talvez não bastem.

Com a ascensão dos métodos e tecnologias que utilizam a inteligência artificial, uma das saídas possa ser justamente investir em técnicas de análise de comportamento dos usuários das plataformas digitais das empresas. Com o passar do tempo, os dados coletados poderão prever ações e identificar potenciais riscos à segurança, que podem abrir brechas para ataques passíveis das temidas punições.

Francisco Camargo, Presidente da Abes (Associação Brasileira das Empresas de Software)

Transformação mental é a próxima fronteira da análise de dados

Por Ricardo Santana

Especialistas de diversos países tentam explicar a importância da informação digital para impulsionar os negócios. Atualmente, os dados estão disponíveis para todos, mas a aplicação depende da confiança na qualidade da fonte, na compreensão de como eles fluem e quem tem acesso ao conteúdo.

Estimativas da KPMG revelam que 90% dos dados atuais foram produzidos nos últimos dois anos, com expectativa de que esse volume dobre anualmente nos próximos cinco anos. Isso faz com que o sucesso das empresas do futuro dependa cada vez mais da compreensão correta do negócio e da seleção da tecnologia correta para processar e dar significado às informações. Ainda assim, diante da quantidade de dados disponíveis, não faz sentido processar tudo, sendo necessário definir, primeiramente, como o gerenciamento de dados suporta os objetivos e a estratégia geral da organização.

Apesar disso, 67% dos executivos globais ainda confiam em seus próprios instintos em relação aos dados que recebem, segundo o estudo CEO Survey, da KPMG, o que se contrapõe às empresas com estratégias claras de gerenciamento de dados que os utilizam para alcançar benefícios mensuráveis pouco tempo.

No Brasil, 91% dos 53 CEOs que participaram da pesquisa CEO Outlook dizem que suas organizações têm compreensão geral sobre transformação digital e 84% disseram que a maior parte dos investimentos em tecnologia é estratégico. A pesquisa também destacou que 91% estão cientes sobre a responsabilidade de proteger informações dos clientes e 87% disseram não haver dificuldades para acompanhar o ritmo de inovação tecnológica.

Dito isso, cabe destacar que há no mercado uma série de exemplos de fracassos decorrentes da falta de conhecimento operacional. Mas há também casos de empresas com equipes de vendas questionando a qualidade dos dados recebidas dos clientes. Na opinião dessas pessoas, os dados não suficientemente claros ou estavam sendo protegidos.

Para ajudar a melhorar a confiança deles, a solução é aplicar uma abordagem de análise avançada com centralização e enriquecimento dos dados. Isso ocorre com uma escala ampla de métodos e fontes, correções na qualidade de dados padrão, inteligência artificial, alavancagem de fontes de dados internas e integração de dados externos.

Desse modo, é possível aumentar a qualidade geral e aperfeiçoar a confiabilidade das informações específicas disponíveis. Ainda assim, a execução de um trabalho eficiente não pode parar aí, mas deve envolver a compreensão do processo, o aproveitamento dos benefícios e a mudança da cultura corporativa com a incorporação da estratégia de dados digitais orientada para o sucesso do negócio.

Essa transformação, que não pode se restringir aos dados, também deve ser incorporada à mentalidade dos profissionais do futuro para que tenham uma percepção diferente aplicável à cultura corporativa. Os principais líderes do futuro estão investindo na democratização conectada pois já perceberam que a grande quantidade de dados produzidos e coletados exigirão essa nova mentalidade para se manterem competitivos e melhorarem o impacto dos negócios.

Os dados que impulsionam o planejamento estratégico e a operação proativa são a filosofia central da organização conectada com elevado nível de maturidade na transformação digital que derrubará as barreiras que separam recursos humanos, finanças, compras e outras funções. É com base nos dados e na aplicação de análises que essas organizações poderão reduzir funções verticais isoladas para chegarem a novos modelos de negócios mais focados nos clientes com uma tomada de decisão mais rápida, gerando menos custos e melhores experiências do consumidor.

Ricardo Santana, sócio-líder da área de Análise de Dados da KPMG no Brasil.