Category dados

A pesquisa farmacêutica precisa de adestradores de dados

Por Fabio Alves, Diretor da divisão de HPC (High Performance Computers) da Hewlett Packard Enterprise no Brasil

Lightspeed é o nome de um projeto que lançou no mercado uma vacina contra a COVID-19 em velocidade recorde. No entanto projetos excepcionais desse tipo não devem esconder o fato de que o desenvolvimento de novos medicamentos geralmente só progride em um ritmo muito lento – demorando, em média, 13 anos desde a ideia até a primeira aprovação. Um dos desafios aqui são as enormes quantidade e variedade de dados descentralizados que precisam ser analisados em estudos clínicos de medicamentos, todos estritamente regulamentados por leis e padrões da indústria.

O desafio da análise de dados


O volume de dados em empresas farmacêuticas baseados em pesquisa há muito atingiu dimensões de petabyte. Além do volume absoluto, é um conjunto de dados extremamente heterogêneo: há dados estruturados na forma de medições farmacodinâmicas (dosagem, valores sanguíneos, valores hepáticos etc.) ao lado de dados não estruturados (fotos, raios x, varreduras de tomografias computadorizadas etc.). Além dos resultados dos testes dos ciclos iterativos de um ensaio, há informações pessoais sobre sujeitos e pacientes, dados organizacionais e a comparação com resultados de pesquisas existentes – e isso, dependendo do programa de estudo, para centenas ou mesmo milhares de sujeitos. Em estudos de fase IV, que visam detectar efeitos colaterais muito raros depois que um medicamento é lançado no mercado, pode haver dezenas ou centenas de milhares de participantes.

Esses dados são gerados em várias organizações. Nos testes, as empresas farmacêuticas cooperam com parceiros, como universidades e organizações de pesquisa contratadas. Como consequência, existem requisitos extraordinários com relação a armazenamento, acesso, distribuição e análise de dados. As empresas e instituições pesquisadoras devem ser capazes de trabalhar com os dados coletivamente – às vezes, além das fronteiras nacionais – e em conformidade com os regulamentos de proteção de dados.

Além disso, é crucial avaliar os massivos dados o mais rápido possível, para acelerar o tempo de lançamento no mercado. Entretanto nenhuma plataforma de computação é igualmente adequada a todas as cargas de trabalho. Um sistema de computação de alto desempenho (HPC ou High Performance Computing) com processadores convencionais (CPU) poderia, por exemplo, ser ideal para modelagem farmacocinética; já uma análise de aprendizado de máquina roda significativamente mais rápido com processadores gráficos (GPU).

Nova arquitetura de dados necessária


As organizações de pesquisa, portanto, precisam de uma arquitetura de dados que seja projetada para emparelhar uma enorme quantidade de dados de forma flexível com a capacidade de computação mais adequada – tanto CPU quanto GPU, seja no data center de uma empresa farmacêutica, seja em empresa parceira, seja na nuvem.

A arquitetura de dados deve ser altamente escalável e capaz de mesclar logicamente bancos de dados heterogêneos e globalmente distribuídos em um data lake – com um Namespace uniforme entre os locais (veja imagem abaixo). Isso permite que equipes de pesquisa de diferentes organizações acessem conjuntamente os pools de dados – mas apenas aqueles que são aprovados para eles. O pré-requisito para isso é a multilocação e um modelo de segurança uniforme. Isso é necessário para garantir a conformidade com padrões como GxP, que são diretrizes de boas práticas estabelecidas pela Food and Drug Administration dos EUA. A flexibilidade multiplataforma só é possível se os dados forem seguros, rastreáveis ​​e íntegros.

Uma chamada malha de dados unifica fontes de dados distribuídas e heterogêneas em um único namespace. É o centro por meio do qual os locais de pesquisa, serviços em nuvem e empresas parceiras são integrados em um ciclo de dados – como fornecedores ou como destinatários de dados e análises. (Fonte: HPE)

A capacidade de mover aplicativos entre ambientes HPC, por exemplo, para poder terceirizá-los durante cargas de pico, também traz enormes vantagens. O método escolhido aqui é a conteinerização, no qual os aplicativos são executados em ambientes protegidos (contêineres) próximos ao sistema operacional. Isso permite que os ambientes sejam configurados e desmontados rapidamente, e possibilita a migração de cargas de trabalho sem problemas, por exemplo, para a nuvem e vice-versa. Em um ambiente de contêiner, você tem acesso uniforme a todas as bibliotecas e dependências sem ter de gerenciar cada plataforma individualmente – isso é particularmente útil, se elas forem criadas dinamicamente na nuvem e, em seguida, removidas.

Em termos de custos, outro fator representa um grande progresso para as empresas farmacêuticas: os provedores de TI estão mudando a fim de fornecer recursos de hardware (computadores, armazenamento, redes) como um serviço, não apenas através da nuvem, mas nas instalações do cliente. Os modelos de licença sob demanda permitem que o cliente obtenha recursos em curto prazo e pague por eles com base no uso real (veja a imagem abaixo). Isso estende a agilidade da nuvem pública para o data center corporativo.

Os provedores de TI estão mudando para fornecer infraestrutura de TI como um serviço, não apenas por meio da nuvem, mas também localmente nas instalações do cliente. Os recursos podem ser obtidos em curto prazo e são pagos com base no uso. Isso estende a agilidade da nuvem pública para o data center corporativo. (Fonte: HPE)

Exemplo prático


Na pesquisa cotidiana, poderia ser assim: para a terceira fase de um estudo clínico duplo-cego com 2.000 sujeitos de teste, uma clínica universitária usa o cluster HPC interno, que é otimizado para seus aplicativos de análise interna. Vários laboratórios especializados recebem autorização para enriquecer determinados pools de dados com os seus próprios resultados laboratoriais via acesso remoto. Para a avaliação baseada em IA de varreduras de tomografia computadorizada, a clínica usa capacidades ativadas temporariamente de sistemas baseados em GPU – no entanto, para comparação estatística com os resultados da segunda fase de teste e busca de anormalidades, ela executa o aplicativo de aprendizado de máquina em uma nuvem privada hospedada em um provedor de serviços local.

Nesse cenário, dois fatores economizam um tempo valioso no caminho para o lançamento no mercado da nova droga: em primeiro lugar, a utilização do ambiente computacional mais adequado em cada caso e, em segundo lugar, a capacidade de realizar etapas de trabalho externamente e, portanto, em paralelo, sem perdas por atrito e de acordo com as normas e regulamentos. Um efeito colateral positivo: graças ao licenciamento sob demanda dos pools de recursos, a empresa sempre mantém o controle sobre os custos – sem ter de investir pesado em sistemas HPC com antecedência, como acontecia anteriormente.

Disponibilidade de mercado mais rápida


A arquitetura de dados certa pode reduzir significativamente o tempo de lançamento no mercado – de preferência em combinação com três outros fatores. Em primeiro lugar, com a conteinerização para disponibilizar os aplicativos no local necessário e evitar sobrecarregar os sistemas HPC locais. Segundo, com uma arquitetura de segurança multilocatária para colaboração compatível entre a comunidade de pesquisa. Em terceiro lugar, com pagamento baseado no consumo para recursos de computação, armazenamento e rede. Com essa abordagem, uma empresa farmacêutica pode monetizar os resultados de seu trabalho de pesquisa mais cedo – e por mais tempo, à medida que aumenta a vida útil até o vencimento da patente. O lançamento mais rápido de novos medicamentos no mercado não é uma ciência espacial, mas simplesmente o resultado de conceitos de sourcing inovadores e uma arquitetura de dados inteligente.

O que os dados podem nos revelar sobre tendências no futuro?

Por Oscar Pettezzoni, diretor da Visa Consulting & Analytics

Começo este artigo com uma reflexão simples sobre o poder dos dados. Imagine que você esteja planejando uma viagem para a praia com a sua família no fim de semana. É bem possível que sua primeira providência seja entrar em um site especializado na previsão do tempo para ver se há chances de chover ou de o tempo estar nublado. Depois, consultar um app para saber se o trânsito está bom no dia da viagem. Não há dúvidas de que tudo isso influenciará a sua decisão de pegar ou não a estrada.

Hoje em dia, temos à disposição uma infinidade de informações que nos ajudam a decifrar cenários e dar mais clareza sobre o que pode vir adiante. Claro que não temos, com isso, o dom de prever o futuro, mas os dados misturados à capacidade humana de interpretá-los compõem um bem valioso na hora de entender mudanças de comportamento, avaliar riscos e visualizar tendências.

Quando transferimos essa lógica para as relações comerciais, o grande desafio – tanto do lado de quem compra quanto de quem vende – é tratá-los de forma ágil, personalizada e segura. Em interações digitais e físicas, trocamos informações o tempo todo em atendimentos, preenchendo formulários, no processo de compra. O resultado é a multiplicação dos dados e das interações em uma velocidade cada vez mais acelerada.

A questão é que essas amostras que temos em mãos envelhecem muito rápido também. Ou seja, no fim das contas trabalhamos com dados do passado. Na área de investimento, onde atuei por muito tempo, a gente costumava dizer que rentabilidade passada não significa garantia de retorno futuro. A mesma coisa vale para os dados: com acesso mais democrático a informações em tempo real, o comportamento do consumidor também se torna mais dinâmico, volúvel e sua tomada de decisão mais imediata.

Aí vem uma pergunta crucial: como acompanhar esse movimento frenético e resolver essa equação?

Como disse, é fundamental ser ágil, preciso e garantir a segurança da interação. Sem dúvida, dados e informações são importantes como base de apoio para modelar o futuro, dando maior previsibilidade em relação aos fatos. Mas eles sozinhos não fazem mágica! E é aí que entra em ação a inteligência artificial no esforço de identificar o momento certo em que o consumidor muda de vida, de interesses, de status financeiro. Quando ele, por exemplo, tem um filho e passa a ficar mais em casa, deixa de viajar, ir a bares e restaurantes. É como se a IA fosse capaz de detectar tendências de comportamento e apontar para o futuro. E podemos fazer bom proveito disso em nossos negócios no dia a dia.

Além disso, tem um fator indispensável: o ser humano. Nada substitui a interação humana. Por mais que a gente aplique modelagens automatizadas, as conversas com clientes, a experiência de mercado, a sensibilidade e intuição fazem a diferença. E ter acesso a esses dados pode nos ajudar nesse feeling diário.

Assim, conseguimos dar mais previsibilidade de cenário aos nossos clientes (Comercios, empreendedores, emissores, adquirentes) e apoiar na elaboração de suas estratégias. Conseguimos minimizar ao máximo uma tomada de decisão equivocada. Há um movimento interessante na indústria de pagamentos no sentido de tornar cada vez mais acessível um conjunto de dados e informações, sobretudo para pequenas e médias empresas. Ter acesso a essa riqueza de dados faz grande diferença.

Pensando nisso, vejo ao longo de 2021 alguns caminhos que parecem pavimentados e valem estar em nosso radar:

• Jornada de decisão de consumo mais digital. Mesmo sem efetivar a compra no e-commerce, você se informa, com1para e vê avaliações no ambiente on-line.

• Múltiplos pontos de contato. O consumidor está mais exigente e busca um atendimento consistente em todos os canais.

• Encurtar o processo de compra. Aqui entra a relevância dos dados para otimizar o checkout, mantendo agilidade e segurança na checagem das informações.

• Mensagem certa na hora certa. Com a análise dos dados, é possível fazer a oferta personalizada no momento que o consumidor mais precisa.

Com o acesso mais democrático a informações, os consumidores mudam suas decisões e escolhas cada vez mais rápido e as empresas devem se adaptar para acompanhar esse movimento. Nos projetos que desenvolvemos na Visa sem dizemos que nunca foi tão bom ser um consumidor e nunca foi tão difícil e complexo ser um comerciante. O cliente deseja tudo, em todo lugar e a qualquer hora. Num mundo saturado de dados, ler as entrelinhas da informação se tornou um desafio enorme.

Gartner prevê que gastos globais com infraestrutura de Data Center crescerão 6% em 2021

De acordo com a mais recente pesquisa do Gartner, Inc, líder mundial em pesquisa e aconselhamento para empresas, os gastos mundiais com infraestrutura de Data Center devem chegar a 200 bilhões de dólares em 2021, o que representa um aumento de 6% em relação ao número esperado para este ano. Segundo a pesquisa, a expectativa é uma queda de 10,3% nos gastos dessa área em 2020 devido à restrição de fluxo de caixa por causa da crise atual. A previsão indica que, apesar do declínio provocado pela pandemia de Covid-19, o mercado d e Data C enter deve retomar o ritmo de expansão rapidamente, com crescimento contínuo, ano a ano, até 2024.

“A prioridade para a maioria das empresas em 2020 é manter as luzes acesas, o que tem feito com que investimentos em Data Centers sejam postergados até que o mercado entre no período de recuperação”, diz Naveen Mishra, Diretor Sênior de Pesquisa do Gartner. “Nossa projeção é que os maiores centros empresariais pausem temporariamente seus gastos e retomem os planos de expansão ainda este ano ou no início do pr&oa cute;ximo ciclo. No entanto, as empresas de destaque, conhecidas como hiperescaladoras, continuarão com seus planos de expansão global, com investimentos contínuos em Nuvem Pública”.

Os bloqueios provocados pela pandemia de COVID-19 impedirão a construção de mais de 60% das novas instalações planejadas inicialmente para 2020, razão pela qual a receita de infraestrutura do segmento de Data Center diminuirá 10,3% em 2020. Os gastos de usuários finais devem crescer na casa de um dígito a partir de 2021.

Gastos com infraestrutura de Data Center em todo o mundo (em bilhões de dólares)

 201920202021
Gastos de usuários finais (em bilhões de dólares)210188200
Crescimento (%)0,7-10,36,2

Fonte: Gartner (Outubro de 2020)

“Grande parte da redução da demanda deste ano deve retornar em 2021, quando as equipes estarão presentes fisicamente nos escritórios”, avalia Mishra. “Por enquanto, todos os segmentos de infraestrutura de Data Center estarão sujeitos a medidas de contenção de custos e as áreas de compra das empresas devem estender os ciclos de vida dos equipamentos instalados”.

Com a lenta melhora no crescimento econômico, os gerentes de infraestrutura de Data Center deveriam priorizar um conjunto selecionado de clientes novos e existentes. O Gartner recomenda, especificamente, que as empresas:

1) Treinem a força de vendas para que esses vendedores consigam se envolver com o diretor financeiro (Chief Financial Officer – CFO) e o diretor de compras dos clientes em um novo conjunto de iniciativas para otimização de custos, como renegociaç ã o de contratos de TI, redução de custos de Nuvem e consolidação de TI.

2) Elaborem um manual do setor que ajude os fornecedores de tecnologia a entenderem o impacto da COVID-19 em uma gama de setores diferentes para, então, recomendar ações de curto a médio prazo para os fornecedores em cada setor.

3) Invistam em um novo modelo go-to-market, com características que atendam operações nativamente digitais e sejam capazes de impulsionar a inovação. Valorizem as soluções de TI híbrida e com preços baseados em consumo para melhorar o compartilhamento de ideias com os clientes nativos digitais.

Tags, , ,

Fligoo anuncia aporte Series A de R$ 40 milhões

A Fligoo, startup de análise avançada de dados, com sede em São Francisco, no Vale do Silício, e clientes como Coca Cola, Itaú, Walmart e B2W, anuncia aporte de R$ 40 milhões, liderado por family offices americanas e brasileiras. O investimento será dedicado ao crescimento das operações da empresa, tendo o Brasil como um dos principais focos. A Fligoo usa inteligência artificial, big data e machine learning para fornecer informações preditivas sobre o comportamento do consumidor e otimizar estratégias de negócio. Grandes empresas de mercados como o financeiro, de bens de consumo, varejo, educação e telecom confiam na Fligoo e seus mais de 4 mil algoritmos proprietários para tirarem proveito do recurso mais valioso do nosso tempo: os dados.

“Diferentemente de muitas startups, temos uma operação que apesar do nosso crescimento acelerado gera caixa. Na Fligoo não acreditamos no modelo de encher o cofre de dinheiro de venture capitalists para logo ser refém dos seus ‘terms’. Preferimos crescer o nosso business global a passos naturais e por meio do nosso network”, afirma Carlos Naupari, CEO da Fligoo no Brasil. A operação local da startup cresceu 400% na pandemia. “Depois dos Estados Unidos, em que já temos toda a operação rodando, o Brasil é o país mais importante para nós no momento e é aqui que está o maior potencial para nos tornamos o próximo unicórnio.”

A Fligoo nasceu em 2013, logo depois de um dos fundadores usar o seu conhecimento em computação para fazer um experimento diferente: analisar o comportamento online da mãe da sua então namorada. O objetivo? Descobrir o presente de Natal ideal. O perfume escolhido caiu em cheio no gosto da sogra que se tornou uma das principais apoiadoras do casamento que aconteceria anos depois. O episódio foi o embrião da Fligoo que ao longo dos anos evoluiu de um mecanismo capaz de indicar os melhores presentes a amigos e familiares para um framework proprietário de 4 mil algoritmos, desenvolvido com engenheiros do MIT, que ajuda grandes empresas a usar seus dados de forma segura para incrementar vendas, reduzir a perda de clientes, prevenir fraudes e otimizar processos, como análises de crédito.

A tecnologia da Fligoo se integra aos servidores existentes do cliente de forma remota e entrega resultados que conseguem superar o ROI de projetos ou iniciativas desenvolvidos internamente. A Fligoo usa AI para criar modelos preditivos do comportamento do consumidor. Esses usam vários métodos, incluindo florestas de decisão aleatórias, redes neurais e aprendizagem profunda, que permitem determinar qual produto é melhor para qual tipo de cliente, quando este deve ser oferecido, de que forma e por qual canal. O sucesso dessa abordagem é vista nos resultados comerciais que, em média, saltam 25%. Caso de um dos maiores bancos do Canadá que em dois anos de parceria registra mais de US$ 300 milhões em incremento de venda do seu cartão de crédito.

Parte da operação da startup se baseia em Córdoba na Argentina. É lá que ficam os gênios da Fligoo, os seus cientistas de dados, responsáveis pelo desenvolvimento da tecnologia da startup. São cerca de 40 pessoas dedicadas a treinar, testar e aprimorar os seus algoritmos. “Os clientes enxergam os nossos produtos como soluções holísticas que resolvem os seus maiores problemas para crescer e reter clientes . Somos uma alternativa bem vinda ao trabalho das consultorias tradicionais que dizem trabalhar com AI mas no final das contas entregam apenas belos PowerPoints”, afirma Naupari.

Ao longo dos anos, a Fligoo vem chamando a atenção do mercado. Em 2019, por exemplo, a empresa foi uma das sete selecionadas do programa Start Path, da Mastercard, que passou a apresentá-la à sua base de clientes. Hoje, além do hub em Córdoba, a empresa tem operações nos EUA (São Francisco, Nova York e Miami) e em Londres. Por lá, a startup integra o Scale Fintech, iniciativa da PwC para startups financeiras, e do programa de aceleração do Royal Bank of Scotland. Com vagas abertas e crescimento acelerado, a história da Fligoo está apenas começando.

Tags,

Covid-19 acelera mercado de dados fixos na América Latina, afirma a IDC

Antes da covid-19, as projeções de crescimento dos serviços fixos de dados na América Latina eram de, em média, 10% ao ano de 2019 a 2024. Porém, com a pandemia, a expectativa de crescimento é de 24% acima da previsão, ou seja, de 12,4% ao ano para os próximos quatro anos, estimam analistas da IDC, líder em inteligência de mercado, serviços de consultoria e eventos para os mercados de tecnologia da informação, telecomunicações e tecnologia de consumo.

Com o surgimento da covid-19 as regras do jogo mudaram, a ponto das empresas de telecomunicações serem obrigadas a adiar ou reduzir seus investimentos, explicou Alberto Arellano, gerente de pesquisa em Telecomunicações da IDC México.

Fonte: Latin America Telecom Services Tracker IDC, maio de 2020.

“Somente nos primeiros dois meses de contingência do coronavírus, o tráfego de dados fixos cresceu até 30% e os dados móveis 10%”, afirma Diego Anesini, diretor de pesquisas da IDC América Latina.

“As mudanças na demanda resultaram em uma alta concentração nas redes de acesso do consumidor, devido ao uso de aplicativos para home office e serviços de streaming”, explica.

Mesmo com as mudanças, Luciano Saboia, gerente de pesquisa e consultoria em Telecomunicações da IDC Brasil, afirma que as operadoras conseguiram manter a qualidade dos serviços, tanto para os consumidores como para as empresas, que seguiram desenvolvendo suas atividades. “As operadoras aprimoraram suas ofertas e produtos e ampliaram funcionalidades de colaboração e de conectividade, ajudando os decisores de TI, por exemplo, a enfrentaram o ambiente desafiador. Um exemplo disso é o SD-WAN. Temos visto ofertas recentes combinando conectividade com a disponibilização de devices, como PCs, tablets e smartphones, principalmente para as pessoas que aderiram ao home office, o que reforça a capacidade do mercado em oferecer uma variedade de serviços”, completa.

Para Anesini, as operadoras tiveram que se fortalecer e reforçar principalmente o acesso à infraestrutura de ponta e seu desempenho.

O Chile liderará o mercado de 5G na América Latina.

No caso das redes móveis, o Chile se colocou como o país com maior avanço para as redes de quinta geração (5G), ao anunciar a primeira licitação desta frequência para outubro próximo, visto que seu principal uso será comercial, destacou Anesini.

Enquanto isso, Brasil e México anunciaram que, devido à complicações técnicas e financeiras causadas pela pandemia, a licitação do 5G será realizada até o próximo ano. “No Brasil ainda temos questões a serem definidas, como os participantes do leilão. Além das operadoras, existe uma grande quantidade de provedores regionais querendo usar a frequência do 5G para comercializar seus serviços”, explica Saboia. Segundo ele, fatores econômicos como a capacidade de investimento dos players, a capacidade do país para absorver os serviços e o ecossistema para utilizar a tecnologia no segmento também precisam ser definidos.

“Embora o México já tenha feito os primeiros testes, o leilão foi atrasado e as operadoras continuam desenvolvendo sua rede 4G”, destacou Alberto Arellano.

No caso da Argentina, seu desenvolvimento será mais lento devido à redução dos investimentos, principalmente após o ciclo de congelamento de preços dos serviços de telecomunicações que ocorrerá de 1º de setembro a 31 de dezembro, disse Sebastián Novoa, analista sênior da IDC do mercado argentino.

Tags

Gartner: 65% da população mundial terá dados pessoais protegidos por regulamentações de privacidade até 2023

Em 2023, 65% da população mundial terá seus dados pessoais protegidos por algum tipo de regulamentação de privacidade digital, como a Lei Geral de Proteção de Dados Pessoais (LGPD), que está entrando em vigor no Brasil. Esta é a projeção da mais recente pesquisa do Gartner, Inc., líder mundial em pesquisa e aconselhamento para empresas, que indica um crescimento exponencial comparando com os dados atuais, uma vez que, em 2020, apenas 10% da população está protegida digitalmente por algum tipo de norma ou lei.

“Com mais países implementando leis de privacidade baseadas no regulamento da GDPR (General Protection Data Regulation, em inglês), é fato que o mundo caminha para adotar a linha europeia como o padrão global para lidar com informações pessoais”, diz Nader Henein, Vice-Presidente de Pesquisas do Gartner. “Os órgãos de controle estão instituindo normas de privacidade que buscam paridade com o GDPR. Esses regulamentos permitem que países inteiros estejam mais próximos de alcançar a adequação com a União Europeia, onde suas empresas podem se beneficiar de um mercado maior e com o novo status de ‘confiável’.”

Segundo o Gartner, ainda que algumas organizações ainda se mantenham concentradas na otimização de custos por conta da pandemia global COVID-19, é fundamental que as companhias incorporem o quanto antes as novas necessidades de um cenário de privacidade em rápida evolução na estratégia de dados de seus negócios. “Os líderes de gerenciamento de segurança e risco (SEM – de Security and Risk Management, em inglês) precisam ajudar suas empresas a adaptarem as práticas de tratamento de dados pessoais sem expor os negócios a perdas por meio de multas ou danos à reputação”.

Os analistas do Gartner alertam que os líderes de Segurança e Gestão de Risco precisam implementar o quanto recursos que suportem o aumento do volume de dados, assim como maior variedade e velocidade para os controles, implementando um programa completo de privacidade que seja capaz de gerenciar três estágios na gestão de informações: Estabelecimento, Manutenção e Evolução.

1) Estabelecimento – Segundo o analista Henein, o primeiro estágio para a implementação de programas de privacidade nas empresas é o Estabelecimento, no qual são mapeados recursos básicos e tecnologias para a condução de um programa de gerenciamento de dados. Esse mapeamento é necessário para qualquer companhia voltada para os clientes e que processe informações pessoais. Isso inclui a descoberta e o enriquecimento que permitem que as empresas estabeleçam e mantenham registros de riscos à privacidade.

2) Manutenção – O estágio seguinte, o de Manutenção, no qual as organizações dimensionam seus programas de gerenciamento de privacidade. Esse passo se concentra na administração contínua e no gerenciamento de recursos necessários para a realização das análises. Isso inclui melhorar o tempo de respostas a incidentes que violem dados pessoais, bem como trazer automação para avaliações de impacto de privacidade.

3) Evolução – A etapa de Evolução inclui ferramentas especializadas, buscando recursos que que se concentram na redução do risco de privacidade com pouco ou nenhum impacto no uso de dados. Um dos recursos mais populares permite que as organizações extraiam insights sobre seus consumidores de grandes bases de dados sem expô-los a riscos excessivos de privacidade. Esse tem sido um recurso crítico para as equipes de marketing.

Tags,

Efeito Coronavírus na indústria coloca em xeque a Transformação Digital e a cultura do Data Driven

Por Anderson Aoca

A humanidade está enfrentando uma das situações mais desafiadoras dos últimos tempos. As restrições, como consequência da pandemia do Coronavírus, nos obrigaram a colocar em prática a capacidade de criação tanto para combater os desdobramentos da crise, quanto o vírus.

Como resultado, houve a aceleração de transformações, que aconteciam a passos mais lentos. Neste sentido, a digitalização de processos ganhou uma velocidade até extraordinária e avançou anos em alguns meses. Mas, qual o impacto da indústria com esse impulsionamento? Como foi afetada a base da economia sob o ponto de vista da aceleração da digitalização, uma vez que essa indústria estava construindo sua Transformação Digital de forma morosa e vagarosamente?

As mudanças no formato de trabalho afetaram drasticamente o setor industrial, principalmente as indústrias de manufatura e processos, que têm como característica uma produção que necessita da supervisão quase que constante de pessoas para tomar decisões e intervir quando necessário. Aqui, a adoção do home office foi um desafio, não do ponto de vista dos profissionais, mas dos processos de negócio, que não estão 100% digitalizados e integrados.

Em sua maioria, as informações são alimentadas, manualmente, em planilhas, por diversas fontes, ocasionando a falta de confiabilidade nas informações e disponibilidade do seu percurso para garantir a fluidez do processo desde o chão de fábrica. Isso demanda a checagem dos dados para validação, o que é dificultado à distância. Sob o ponto de vista da produtividade, o desafio é digitalizar os trabalhos manuais integrando-os horizontalmente, e não apenas ter uma digitalização vertical, como normalmente ocorre.

Neste contexto, quando falamos em transformar digitalmente os processos, se faz necessária a criação de uma indústria orientada a dados, ou seja, é preciso aplicar a cultura Data Driven. Porém, para que isso aconteça, é preciso que os profissionais de dados trabalhem integradamente com os especializados em automação e processos de fabricação para que os sistemas sejam construídos de forma consistente e segura. O modelo permitirá obter ecossistema 100% digital, abrindo caminho para os nomeados Gêmeos Digitais das operações.

No contexto da manutenção, outras tecnologias se farão necessárias, como o Machine Learning, o Deep Learning e a Inteligência Artificial, que conectadas por meio do IoT (Internet das Coisas) permitirão o acompanhamento de equipamentos e, como consequência, a geração de predições, uma tendência que também foi acelerada, ainda que timidamente, pela situação pandêmica.

De forma geral, o Coronavírus acelerou a Transformação Digital à fórceps e demandou da indústria a necessidade de conhecimento e entendimento do seu nível de maturidade do ponto de vista da tecnologia e dos dados para, a partir disso, construir um plano de ação para tornarem-se indústrias Data Driven. É um caminho sem volta e, uma coisa é certa, trará muitos benefícios!

Anderson Aoca, gerente de Indústria 4.0 da Engineering, companhia global de Tecnologia da Informação e Consultoria especializada em Transformação Digital.

Kearney abre processo para seleção remota de estagiários em Data Analytics

A Kearney, uma das maiores consultorias globais de gestão de negócios, com mais de 95 anos de trajetória, abriu inscrições para o seu processo seletivo para estudantes de graduação. A companhia, que há 25 anos atua junto a grandes corporações no Brasil, oferece oportunidades de estágio em Data Analytics neste semestre.

Este ano, devido ao cenário imposto pela pandemia da Covid-19, a Kearney adequou todo o processo seletivo, substituindo o tradicional roadshow por webinars e etapas presenciais por fases online.

O perfil elegível ao processo considera candidatos com conhecimentos em ciência de dados e formatura de graduação entre dezembro de 2021 e dezembro de 2022.

Pietro Alves, recrutador da Kearney, destaca que a empresa busca estudantes que possuam contato com Data Analytics, Análises Preditivas e Problemas de Otimização. “Acreditamos no potencial dos estudantes de graduação que já estejam familiarizados com o tema. Caso qualquer candidato tenha dúvidas sobre o seu nível de domínio, encorajamos a participação. Teremos a oportunidade de avaliar os desempenhos individualmente ao longo das etapas”, sugere.

A companhia não restringe os cursos. O processo é aberto a estudantes de qualquer curso e escola – desde que se enquadrem no perfil de formatura proposto e tenham o conhecimento nessa área específica.

“O processo teve suas etapas adaptadas às necessidades impostas pelo isolamento social, mas seguirá uma estrutura semelhante à do modelo convencional”, explica Sandra Strongren, gerente sênior de Recursos Humanos da Kearney no Brasil. Pietro explica que o processo seletivo não contará com a dinâmica em grupo, etapa tradicional da segunda fase do recrutamento on campus da Kearney, mas trará uma etapa com um assessment em Analytics aliado a uma entrevista técnica, seguidos de entrevistas com resolução de caso até a fase final.

Inscrições

Os interessados em conhecer um pouco mais da consultoria e participar do processo seletivo devem fazer suas inscrições através do site http://bit.ly/kearneypainelvagas até o dia 10/09.

Os primeiros webinars acontecem ainda em agosto. O primeiro deles está marcado para o dia 26 de agosto, às 18h (http://bit.ly/kearney26ago – senha: kearneywebinar1). O segundo acontece em 28 de agosto, às 12h (http://bit.ly/kearney28ago – senha: kearneywebinar2). Os interessados já podem clicar nos links e adicionar os lembretes em sua agenda através do botão “Add to my calendar”. Na última semana de inscrições, a companhia ainda fará mais duas sessões de webinar, nos dias 8 e 9 de setembro.

Recrutamento online

Desde o início do isolamento social, em março deste ano, a Kearney já está em seu terceiro processo de seleção e somou nove novos estagiários ao seu quadro de consultores.

Estudo da IBM mostra que contas comprometidas de funcionários levaram às violações de dados mais caras durante o ano passado

IBM Security anunciou os resultados de um estudo global que examina o impacto financeiro das violações de dados, revelando que uma violação custa, na média global, US$ 3,8 milhões para as companhias, e contas comprometidas de funcionários foram a causa mais cara. Ao analisar as violações de dados sofridas por mais de 500 organizações pelo mundo, 80% dos incidentes estudados resultaram na exposição das informações de identificação pessoal de clientes (PII). Entre todos os tipos de dados expostos nessas violações, as informações pessoais de cliente também foram as mais caras para as empresas.

O relatório aponta as perdas financeiras que as organizações podem sofrer caso dados sejam comprometidos, à medida que companhias acessam cada vez mais dados sensíveis por meio do trabalho remoto e operações de negócios na nuvem. Um outro estudo da IBM descobriu que mais da metade dos funcionários que começaram a trabalhar em casa devido à pandemia não recebeu novas orientações sobre como lidar com as informações pessoais de cliente.

Patrocinado por IBM Security e conduzido pelo Instituto Ponemon, o Relátorio de Custo da Violação de Dados 2020 (Cost of Data Breach 2020) é baseado em entrevistas realizadas com mais de 3.200 profissionais de segurança em organizações que sofreram alguma violação de dados durantes o último ano.[1] Algumas das principais descobertas do relatório incluem:

· Tecnologia inteligente reduz custo de violações pela metade: empresas que implementaram tecnologias de automação de segurança (que utilizam IA, análise de dados e orquestração automatizada para identificar e responder aos eventos de segurança) tiveram menos da metade dos custos de violação de dados quando comparadas às que não implementaram essas ferramentas – US$2,45 milhões vs US$6,03 milhões, em média.

· Pagamento pelas credenciais comprometidas: em incidentes nos quais atacantes acessam a rede das corporações usando credenciais comprometidas ou roubadas, as empresas viram o custo de violação de dados ser quase US$1 milhão mais alto em comparação à média global, chegando a US$4,77 milhões por violação. Ataques maliciosos, que exploram a vulnerabilidade de terceiros, foi a segunda origem com maior custo (US$4,5 milhões) para esse grupo.

· Custo de mega violações aumenta aos milhões: os custos das chamadas mega violações, nas quais mais de 50 milhões de registros são comprometidos, subiram de US$388 milhões para US$392 milhões. Violações nas quais 40 – 50 milhões de registros foram expostos custaram para as empresas US$364 milhões em média, um aumento de US$19 milhões comparado ao relatório de 2019.

· Ataques de estado-nação (nation-state) – a violação mais prejudicial: as violações de dados que possam ter sido originadas dos ataques de estado-nação foram as mais caras em comparação com outros atores de ameaças examinados no relatório. Conhecidos como “state-sponsored attacks”, esses ataques tiveram uma média de U$4,43 milhões em custo de violação de dados, superando os cibercriminosos financeiramente motivados e os hackativistas.

“Quando se trata da capacidade de mitigar o impacto de uma violação de dados, estamos começando a ver uma clara vantagem de empresas que investiram em tecnologias automatizadas”, disse Wendi Whitmore, vice-presidente de IBM X-Force Threat Intelligence. “Em um momento em que as empresas estão expandindo sua presença digital a um ritmo acelerado e a falta de skills no setor de segurança persiste, as equipes podem ficar sobrecarregadas ao proteger mais dispositivos, sistemas e dados. A automação da segurança cibernética pode ajudar a resolver essa carga, permitindo uma resposta mais rápida à violação e significativamente mais econômica.”

Credenciais de funcionários e nuvens configuradas incorretamente: ponto de entrada preferido dos atacantes

Credenciais roubadas ou comprometidas e nuvens com configurações incorretas foram as causas mais comuns de violações maliciosas para as companhias que participaram do estudo, representando aproximadamente 40% dos incidentes. Com mais de 8,5 bilhões de registros expostos em 2019 e atacantes usando emails e senhas previamente expostos em uma a cada cinco violações estudadas, as empresas estão repensando sua estratégia de segurança pela adoção da abordagem de confiança-zero (zero trust) – reexaminado como eles autenticam os usuários e como a extensão de acesso aos usuários são concedidos.

Similarmente, a luta das empresas com a complexidade da segurança – o principal fator de custo de violações – está contribuindo para que as configurações incorretas de nuvem se tornem um desafio de segurança crescente. O relatório de 2020 revelou que os atacantes usaram as configurações incorretas de nuvem para violar as redes em 20% do tempo, aumentando o custo de violações para US$4,41 milhão em média.

Tecnologias avançadas de segurança ajudam os negócios

O relatório destaca a crescente divisão no custo de violações entre empresas que implementaram tecnologias avançadas de segurança e aquelas que estão atrasadas, revelando uma diferença de economia de US$3,58 milhões para companhias com automação de segurança totalmente implementada versus aquelas que ainda não implementaram este tipo de solução.

As empresas participantes do estudo que contavam com automação de segurança totalmente implementada também relataram um tempo de resposta significativamente mais curto às violações, outro fator-chave mostrado para reduzir os custos de violação na análise. O relatório constatou que inteligência artificial, machine learning, análise de dados e outras formas de automação de segurança permitiram às empresas responder a violações até 27% mais rápido do que as empresas que ainda não implantaram a automação de segurança.

A preparação para resposta a incidentes também continua influenciando fortemente as consequências financeiras de uma violação. Empresas que não possuem uma equipe designada ou testes de planos de resposta a incidentes sofrem em média com um custo de US$5,29 milhões em violação, enquanto as empresas que possuem equipes dedicados, testes e simulações sofrem menos de US$2 milhões em custo de violações. Isso reafirma que a preparação e a prontidão geram um ROI significativo em segurança cibernética.

Alguns itens adicionais do relatório desse ano incluem:

· Riscos do trabalho remoto têm um preço – Com modelos de trabalho híbrido criando ambientes menos controlados, o relatório descobriu que 70% das empresas que adotaram o teletrabalho em meio à pandemia esperam que os custo de violações de dados se agravem.

· CISOs culpados pelas falhas por violações, apesar do poder limitado de tomada de decisão: 46% dos entrevistados disseram que o CISO/CSO é responsabilizado pelas violações, apesar de apenas 27% afirmarem a tomada de decisão sobre a política de segurança e tecnologia vem do CISO/CSO. O relatório concluiu que a nomeação de um CISO foi associada com uma de economia de US$145.000 versus a média de custo por violação.

Tendências regionais e por indústria

· O estudo analisou o custo de violações de dados em diferentes indústrias e regiões, descobrindo que as violações de dados nos Estados Unidos são muito mais caras, custando US$8,64 milhões em média.

· No Brasil, o custo médio da violação de dados é de R$5,88 milhões (cerca de US$1,12 milhão), um aumento de 10,5% em relação ao ano anterior comparando o valor em reais (R$ 5,32 milhões em 2019). O estudo também observou um aumento no número de dias para identificar a violação de dados, que subiu de 250 para 265, e para conter a violação, que cresceu de 111 para 115 dias, em comparação a 2019.

· Globalmente, a indústria de saúde continua apresentando os mais altos custos médios de violação, com US$ 7,13 milhões – um aumento de mais de 10% em comparação com o estudo de 2019.

Sobre o Estudo

O Relatório de Custo da Violação de Dados anual é baseado em análises profundas de violação de dados reais, que ocorreram entre agosto de 2019 e abril de 2020, levando em conta centenas de fatores incluindo atividades legais, regulatórias e técnicas para a perda do valor de marca, consumidores, e produtividade dos funcionários.

Para baixar uma cópia do Relatório de Custo da Violação de Dados 2020, visite: ibm.com/databreach

O uso de inteligência de dados na gestão do varejo

Por Guilherme Werneck, CEO do Moki

A pandemia da Covid-19 está fazendo com que novos hábitos de consumo surjam e com que as empresas se adaptem à essas novas ações. Com a população há mais de 60 dias em casa como medida de segurança para prevenir o novo coronavírus, as compras no e-commerce tiveram um salto. Segundo dados da Associação Brasileira de Comércio Eletrônico, as transações feitas pela internet dispararam 40% entre março e abril de 2020. Mas, como manter a sua empresa relevante dentro desse ambiente?

Muitas dúvidas surgem, inclusive em analistas mais experientes. As empresas podem sentir as pressões para manter suas marcas relevantes e reter a lealdade do cliente online e offline.

A conquista de clientes em um mercado tão concorrido pode ser um desafio. Corresponder ao comportamento do consumidor online e offline requer análises avançadas. A relação entre comportamento com a análise baseada em geolocalização pode ser mais um desafio ao agregar os dados para obter informações sobre como otimizar o marketing e os preços para gerar receita.

Constatações como essas exigem mudanças relevantes na forma de pensar e decidir para manter a competitividade. Não apenas no que se refere às vendas e conquista de clientes, mas em todos os processos da organização. As transformações digitais, como a Indústria 4.0, trazem um ambiente físico tradicional para um ambiente digital moderno, unindo vários fluxos de trabalho que podem ser adaptados e dimensionados na velocidade dos seus negócios, sob demanda. Os varejistas também estão realizando a mesma transformação no que está sendo chamado de Varejo 4.0.

Essa transformação para o Varejo 4.0 exige a adoção de uma cultura que privilegie a análise de dados, impulsionada pela enorme variedade de informações e a complexidade das questões que estão sendo propostas.

Mas, apenas captar dados não é o suficiente, é necessário ter a capacidade de acessar e consolidar todos os dados que estão diversos sistemas, garantir sua qualidade e enriquecer a organização com informações de terceiros.

Para obter uma visão precisa você não pode simplesmente confiar apenas na intuição ou nos insights analíticos que se obtém nos dashboards ou nos recursos de relatórios do Excel ou ferramentas de BI.

Para atender à sofisticação que a análise de dados exige, é necessário também fazer um diagnóstico, modelar futuros cenários com análise preditiva, compartilhar informações com a equipe e compartilhar resultados de uma maneira fácil de entender. Garantir informações atualizadas e consistentes, assim como oferecer aos tomadores de decisão autonomia para análise também são fundamentais.

A partir de todos esses requisitos, está sendo implementado no Moki a ferramenta de Inteligência de Dados, fazendo com que os usuários tenham insights mais profundos sobre clientes, transações e operações, em todos os canais, e auxiliando em tarefas fundamentais para essa jornada, com a garantia de dados confiáveis, desenvolvimento de algoritmos e mobilidade de resultados.

Cinco dicas para impulsionar uma estratégia de dados centralizada com o Gerenciamento de Dados Mestres

Por Ricardo Fornari, Country Manager da Stibo Systems no Brasil

Em tempos marcados por processos hiperconectados e demandas que exigem alta disponibilidade e agilidade das empresas, estabelecer uma estratégia de dados centralizada tem se tornado uma demanda essencial para que uma empresa seja capaz de explorar totalmente seus dados. Mas como, afinal, operações complexas e de grande porte podem desenvolver essas ações de forma prática e assertiva?

Em primeiro lugar, a organização deve ser capaz de identificar, combinar e gerenciar várias fontes de informações. Outro passo é construir os modelos de análise mais adequados para prever e otimizar os resultados a serem avaliados. Além disso, porém, é preciso que os líderes tenham a vontade de transformar os processos de seus negócios, buscando formas para que a companhia possa alavancar e converter os ativos digitais em fontes para decisões úteis, com insights que realmente ajudem a melhorar os ganhos da empresa.

Nesse contexto, o apoio das ferramentas de Master Data Management (MDM –Gerenciamento de Dados Mestres, em português) tem se mostrado cada vez mais uma opção prática e essencial. Para definir uma estratégia clara de como usar a análise de dados por meio de soluções de MDM, no entanto, os líderes devem entender que certos pré-requisitos e iniciativas são fundamentais. Pensando nisso, separamos cinco dicas para impulsionar os resultados das organizações modernas:

1) Verifique seu cenário de dados – Todas as organizações são desafiadas pelo crescimento exponencial nos volumes de dados e pela mudança constante de cenários de negócios. Os Chief Data Officers (CDOs) precisam repensar como podem gerenciar e governar suas informações com mais eficiência para garantir vantagens competitivas e cumprir com os requisitos regulamentares. Um dos maiores desafios é identificar todas as fontes de dados – ou melhor, silos de dados – espalhadas pela organização. Isso pode incluir ERPs, CRMs, planilhas, sistemas legados e muito mais. Os silos de dados surgem naturalmente em empresas de médio e grande porte, porque diferentes unidades organizacionais têm suas próprias prioridades, responsabilidades e objetivos. Também podem surgir se alguns departamentos competem entre si em vez de cooperar em direção a objetivos de negócios comuns. Nesse cenário, as equipes geralmente perdem muito tempo extraindo e comparando manualmente os dados extraídos de uma variedade de sistemas.

2) Crie uma única casa para seus dados – Criar uma versão única e centralizada desses arquivos, usando o gerenciamento de dados mestres, ajudará a resolver vários problemas. Com o MDM, por exemplo, os líderes podem gerenciar, centralizar, organizar, categorizar, localizar, sincronizar e enriquecer dados mestres de acordo com as necessidades de seus negócios, apoiando as iniciativas de vendas, marketing e operação de sua empresa. Os dados mestres podem assumir a forma de informações sobre produtos, clientes, fornecedores, locais e ativos, além de outras referências que direcionam seus negócios. O gerenciamento eficiente de dados mestres em um repositório central fornece uma visão autorizada única das informações e elimina ineficiências dispendiosas causadas por silos de dados. Em outras palavras, os usuários podem ter certeza da qualidade e integridade dos dados, além de acelerar significativamente o processo de insight. Isso permite que os líderes confiem nos dados e nas informações o suficiente para basear suas decisões críticas de negócios.

3) Ajuste a governança de dados – Para extrair o valor máximo das informações, também é necessário um forte programa de governança de dados. Esse passo ajuda a desenvolver as informações digitais como um ativo comercial estratégico realmente útil e inteligente. O sucesso de um programa de governança de dados depende de uma infraestrutura robusta que permita a automação, o gerenciamento e a escalabilidade das iniciativas internas. Isso requer a implementação de políticas e processos, controle de versão e aprovações com fluxos de trabalho e regras de negócios integrados para manter a precisão e a responsabilidade das informações. Um fator crucial para ajustar a governança de dados é criar as equipes certas e, no repositório de dados central, usar privilégios de segurança e acesso baseados em funções. Com isso, a organização reduz o risco de pessoas erradas acessarem as informações erradas. Além disso, a empresa protege a qualidade de seus dados, fornecendo direitos de edição e visualização adaptados a diferentes perfis de usuários em seu sistema.

4) Não fique preso ao pensamento tradicional – O universo dos dados mudou imensamente ao longo dos anos. O crescimento exponencial das informações acelerou as oportunidades de obter insights, combinando dados de novas maneiras. O desafio é descobrir como fazer isso. Com o aumento da qualidade e do volume de dados, as empresas podem obter visualizações mais panorâmicas e granulares de seu ambiente de negócios, usando-as para melhorar a experiência dos clientes, processos operacionais e estratégias de negócios. Por exemplo, supermercados podem analisar os padrões de gastos dos clientes e usar dados extraídos das mídias sociais – como impressões e curtidas – para planejar vendas de determinadas mercadorias ou picos sazonais. Uma boa maneira de começar é simplesmente se perguntar o que você poderia fazer se tivesse as informações corretas.

5) Procure formas para extrair mais valor de seus dados – Descobrir novas formas criativas de usar bem os dados existentes não é suficiente. Sua organização precisa entender e confiar em modelos de Big Data. Se a cultura, os recursos e as análises emergentes existentes de uma organização não estiverem alinhados com a forma como ela realmente chega às decisões ou se não fornecer uma maneira clara de atingir as metas de negócios, a análise de dados não funcionará. Os funcionários e gerentes da linha de frente precisam entender como os dados podem ajudá-los. Em outras palavras, as ferramentas de análise precisam ser relevantes e aplicáveis ​​aos seus negócios. Para isso, desenvolva ferramentas simples e intuitivas para a equipe da linha de frente. Os gerentes precisam de métodos transparentes para usar os novos modelos e algoritmos. Se eles não conseguirem ver como as soluções os ajudam a fazer melhor seu trabalho, eles não as usarão.

Vale destacar que, independentemente da facilidade de implementação e implantação, a maioria das organizações precisará atualizar suas habilidades analíticas e alfabetização. Para tornar a análise parte das operações diárias, os gerentes devem vê-las como essenciais para resolver problemas e identificar oportunidades. Os esforços necessários variarão de acordo com os objetivos e a linha do tempo da empresa. Ajustar culturas e mentalidades normalmente requer treinamento abrangente, modelagem de papéis pelos líderes e incentivos e métricas para estimular a adoção.

Os ganhos de uma companhia ao estabelecer uma estratégia de dados centralizada podem ser enormes. Adotar as dicas acima tornará esse processo mais simples e funcional, reduzindo o uso de tempo e recursos. O objetivo deve ser sempre agregar valor e inteligência à gestão, com ênfase nas exigências reais da companhia. Afinal de contas, se os dados são a base dos negócios hoje em dia, quem souber usá-los de maneira ágil estará à frente dos seus concorrentes.

Estudo da IBM: líderes latino-americanos que valorizam a confiança nos dados estão posicionados para superar seus pares

A vigésima edição do estudo da IBM “Build Your Trust Advantage”, divulgado semestralmente, entrevistou cerca de 13,5 mil executivos globalmente para examinar como as empresas chegam a liderança de mercado, enfatizando a confiança na utilização e no intercâmbio de dados.

A pesquisa, conduzida pelo IBM Institute for Business Value (IBV) em cooperação com a Oxford Economics, entrevistou executivos C-level responsáveis por marcas líderes em 98 países e 20 indústrias em todo o mundo, incluindo a América Latina. O estudo mostrou que a liderança de mercado é alcançada com mais frequência quando uma organização estabelece um alto nível de confiança nos dados de seus clientes, em seus processos de negócios e com o ecossistema de parceiros.

Por meio de pesquisas quantitativas e qualitativas, ficou claro que havia um conjunto de líderes que se destacaram por entender que a transparência e a reciprocidade são ingredientes primordiais para ganhar a confiança do cliente, assim como gerar crescimento. Esses líderes aproveitam os dados para gerar confiança nos consumidores, criar uma cultura de tomada de decisão com base em dados, e frequentemente compartilham dados com parceiros do ecossistema sem abrir mão da vantagem competitiva. Também foi descoberto que esse grupo supera seus pares em inovação e gerenciamento de mudanças, assim como em crescimento de receita e lucratividade, oferecendo resultados 165% mais altos.

Esses líderes têm um profundo conhecimento de que construir confiança nos relacionamentos com os clientes é um imperativo estratégico e trabalham fortemente para conquistá-los e mantê-los. De fato:

• 82% dos líderes acreditam firmemente que os dados ajudam a criar uma vantagem
estratégica para fortalecer o nível de confiança do consumidor, bem como seus resultados.

• Os líderes também superam seus pares em 22% na capacidade de respeitar a privacidade dos dados dos clientes como uma vantagem competitiva central.

Isso é extremamente importante no momento em que os consumidores relatam mais preocupações do que nunca sobre a vontade de compartilhar informações pessoais. Um estudo relacionado da IBM sobre privacidade de dados constatou que 81% dos consumidores globais dizem que, no ano passado, se preocuparam mais com a forma como as empresas usam seus dados.

Felizmente, o mesmo estudo constatou que também há uma maior disposição de compartilhar informações com companhias que têm transparência em relação à utilização dos dados: 81% disseram que apoiam ativamente empresas que são transparentes sobre como usam seus dados e evitam fazer negócios com organizações que não o fazem. Como resultado, as companhias que conquistaram a confiança do cliente têm mais probabilidade de reter os dados que possuem. “As organizações líderes que colocam sua confiança no centro da maneira como usam os dados com seus clientes estão criando enormes oportunidades para obter maior sucesso”, disse Mark Foster, vice-presidente sênior de IBM Global Business Services.” As empresas de hoje precisam ser capazes de ganhar a confiança de seus clientes enquanto confiam nos dados de seus próprios processos e ecossistemas, ou eles rapidamente ficarão para trás de seus pares”.

Embora o estudo esteja concentrado na necessidade de transparência em como as empresas lidam com os dados dos clientes, também destaca a importância de confiar nos dados encontrados em uma organização. Foi descoberto que os líderes se esforçam para garantir que os dados dentro das suas próprias paredes sejam precisos e limpos, para que possam tirar proveito deles para tomar decisões mais bem informadas, como desenvolver novos modelos de negócios e entrar em mercados novos ou emergentes.

• Oito em cada dez líderes dizem que eles e seus colegas dependem muito de dados para melhorar a qualidade e a velocidade das decisões que tomam.

• 70% já usam os dados extensivamente para desenvolver novos modelos de negócios (112% a mais que seus pares), enquanto 66% já usam os dados para tomar decisões informadas ao entrar em novos mercados.

• Na América Latina, 14% dos entrevistados estão obtendo os maiores retornos com o uso dos seus dados e superam seus pares em crescimento de receita e lucratividade.

O estudo também revelou uma ênfase na importância da criação de ecossistemas confiáveis. Os dados que simplesmente permanecem dentro da organização têm mais probabilidade de se desviar do que de aumentar seu valor. As organizações líderes estão liberando seus dados e eliminando o risco de trocas de dados em um ecossistema compartilhado, permitindo que circulem amplamente, sem sacrificar a responsabilidade de garantir licenças e protegê-las. Esse comportamento continuará a crescer ao longo do tempo:

• 56% dos líderes já estão adquirindo e compartilhando dados amplamente com sua rede de parceiros e 85% esperam que suas redes de parceiros se expandam nos próximos anos.

• Os líderes esperam que a evolução das plataformas de negócios digitais exija uma nova abordagem para o compartilhamento de dados.

• 62% dos líderes já estão integrando novos modos de monetização em suas estratégias de dados.

Acesse os resultados completos do estudo aqui: http://ibm.co/c-suite-study

Tags, , , ,