Category artigo

Desigualdade: o vilão não é a inovação e sim a sociedade

Por Rodolfo Fücher, presidente da Associação Brasileira das Empresas de Software

Esse artigo foi inspirado na indignação de um grande amigo ao ler a entrevista do economista italiano Michele Boldrin intitulada “A inovação destrói empregos com mais rapidez do que a educação os salva “, publicada em agosto de 2017, no El País. Na opinião deste amigo, ao longo de sua experiência de mais de 40 anos no setor de tecnologia da informação, os fatos demonstram que a tecnologia tem colaborado para a criação de inúmeros novos negócios, nunca antes possíveis, gerando incontáveis novas profissões e avanços indiscutíveis para o bem da sociedade. Ele finaliza que a tecnologia não é o vilão, e sim um agente de desenvolvimento.

Na minha visão, a chegada de alguma tecnologia ou modelo inovador, sem dúvida, cria em um primeiro momento um gap entre grupos de pessoas que têm acesso a essa nova tecnologia e são beneficiados por ela, e pelos que não têm acesso ou tão pouco têm condições de explorá-la. Este gap pode impactar empregos do modelo até então existente, gerando a dita desigualdade. O ponto central é a velocidade que este gap é reduzido, ou eliminado, até o momento em que a maioria da população passa a ter acesso aos benefícios desta determinada inovação.

Lembram quando a sociedade utilizava cavalos como uma força animal para tracionar veículos? Em, praticamente, uma década apenas, os veículos a combustão substituíram os animais na cidade de Nova Iorque. Pensem na quantidade de pessoas que perderam seus empregos, desde aqueles que trabalhavam no campo, transporte, limpeza da cidade, veterinários, criadores, cuidadores etc. Por outro lado, a indústria automobilística passou a necessitar de trabalhadores para as linhas de montagem, mecânicos, engenheiros, entre outros. Além disso, também surgiu um imenso marketplace: indústria de autopeças, acessórios, oficinas, postos de gasolina, etc. Sem falar nos demais benefícios, como a rapidez do transporte de cargas e alimentos que, no final, transformaram radicalmente a logística deixando-a mais ágil, eficiente e barata e aumentando significativamente a disponibilidade e facilidade a produtos, de forma ampla e democrática. Pela lógica, maior a demanda, mais produção. Mais produção, mais empregos. Porém, certamente durante este processo de transição, houve um período no qual o desemprego aumentou. O que nos leva a refletir sobre a velocidade que a sociedade consegue requalificar sua mão de obra e, tão importante quanto, criar meios de acesso às ferramentas e equipamentos que asseguram que esta inovação seja usufruída por toda a sociedade o mais rápido possível e, dessa forma, afastar o aumento na desigualdade e sem impactar as gerações subsequentes.

Um bom exemplo é o que estamos vivenciando hoje: a falta de acesso à internet deixou cerca de 25% dos estudantes fora do processo educativo. Não há como a sociedade recuperar este tempo perdido. Estes 25% ficarão em desigualdade e, muito provavelmente, impactarão as próximas gerações. O acesso à internet é tão importante quanto o acesso à energia elétrica e saneamento básico.

Quando olhamos ao longo prazo, é indiscutível as inúmeras oportunidades geradas diretamente ou indiretamente pela chegada de alguma tecnologia ou modelo inovador, em um número ainda muito maior ao existente. No entanto, a velocidade de reduzir este gap de acesso e qualificação está diretamente relacionada ao empenho da sociedade de forma geral em ficar atenta a estes ciclos de inovação tecnológico. Obviamente, como qualquer país democrático, o governo é fruto de sua sociedade. E fica claro que, como sociedade brasileira, não estamos desempenhando este papel adequadamente.

Somos nós os culpados e não a inovação. Cabe a nós, como indivíduos, da forma que estiver ao nosso alcance, contribuir para que este gap seja reduzido de forma mais ágil e eficiente. Somente dessa forma teremos uma sociedade mais próspera e inclusiva. Nós, da ABES – Associação Brasileira das Empresas de Software, estamos atuando em duas principais frentes para reverter esse quadro. Temos trabalhado junto aos poderes legislativo e executivo, combatendo veementemente as várias propostas de reforma tributária, que no final do dia vem majorar o acesso à tecnologia pela população brasileira que o Brasil já sofre com uma das maiores tributações no segmento de telecomunicações no mundo, aumentando ainda mais esse gap. E demos início à mobilização para redução da desigualdade desenvolvida em parceria com a ReUrbi e o Observatório do Terceiro Setor, com apoio da Weber Shandwick. Nosso objetivo é apoiar projetos de inclusão social que promovam a capacitação e inclusão na área digital, por meio dos recursos obtidos pela reciclagem de equipamentos de TI descartados pelas empresas participantes do Programa ABES ReciTech, no qual faz a coleta, reciclagem e reinsere os equipamentos na cadeia produtiva.

Afinal, não podemos culpar o padeiro pela existência da fome.

Se dinheiro não é o problema, o que falta para startups brasileiras?

Por Ana Flávia Carrilo

Acesso à capital é um dos fatores essenciais para qualquer negócio, e se você é uma pessoa empreendedora, esse fator se torna ainda mais essencial para garantir o futuro próspero de sua startup. Mas quando dinheiro não é o problema, qual o próximo passo? Estaríamos no cenário ideal do ecossistema?

Se levarmos em consideração as últimas notícias sobre startups, essa é a conclusão que mais parece óbvia. O venture capital no Brasil está superaquecido, registrando recordes como o melhor semestre da história do ecossistema. Já foram US ﹩5,2 bilhões recebidos (valor que já ultrapassa 40% do total investido em todo ano de 2020).

Recentemente, a holding 2TM, dona do Mercado Bitcoin, anunciou aporte de US ﹩200 milhões do Softbank, investimento que se tornou a maior rodada Série B já realizada em um startup brasileira e o maior investimento no segmento de criptomoedas do Softbank na América Latina.

Claro que são notícias incríveis! Para as startups e todo ecossistema brasileiro. Cases de sucesso como estes colocam a nós e o Brasil como destaque e vitrine para ecossistemas internacionais, um reconhecimento merecido e necessário.

A provocação aqui, não são os aportes. Pelo contrário. Mas sim, de como fazemos para que essa realidade de investimento não aconteça só com startups do eixo sul-sudeste. Como podemos construir em nosso ecossistema, uma maior descentralização desse acesso à capital?

Para trazer uma referência do que estou falando, trago aqui um dado do último mapeamento Brasil que a Abstartups realizou. Entre as startups que receberam investimentos no último ano, 65,8% delas são do sul-sudeste.

Região | % de investimentos em 2020

Norte | 5,4%

Nordeste | 18,6%

Centro-Oeste | 10,2%

Sudeste | 26,2%

Sul | 39,6%

A partir de dados como este, é que começamos de fato a responder aquela pergunta inicial. E a resposta é: se dinheiro não é o problema, a distribuição dele ainda é. No Brasil, temos mais de 60 comunidades de startups e 13.500 startups mapeadas. E quando falamos de um ecossistema saudável ou de fomentar nosso empreendedorismo, temos que ter o olhar atento para que essa realidade seja nacional.

Se você que está lendo essa coluna atua como ator em nosso ecossistema, pode contribuir levando acesso à informação, conectando-se a lideranças locais de regiões diferentes da sua e buscando conexões. Se você é uma pessoa empreendedora, busque por iniciativas como o Batch de Investimentos por região e continue acompanhando o nosso trabalho nesta coluna. Juntos, podemos fazer a diferença!

Ana Flávia Carrilo, coordenadora de informações da Abstartups

Os desafios do data center no mundo pós-pandemia

Por Elayne Martins, diretora de vendas corporativas da CommScope

Não há muito segredo em relação ao que os administradores de rede (e usuários) esperam para o futuro próximo: conectividade confiável, baixa latência e maior largura de banda, para suportar o crescimento contínuo do volume de dados que os data centers passarão a receber. Mas é claro que atender a esse desejo não é simples. De um lado, os provedores de serviços precisam se atualizar e adaptar suas redes ao crescimento natural da demanda e ao rápido avanço da tecnologia, que se reflete no lançamento de produtos mais eficazes. De outro lado, será necessário definir com clareza o impacto da pandemia, que em 2021 deve chegar, felizmente, a um patamar mais seguro (principalmente nos países desenvolvidos), com a vacinação em larga escala, o que deverá levar à recuperação da atividade econômica.

A questão é saber como ficar um passo à frente nesse cenário de incertezas. Depois dos acontecimentos excepcionais de 2020, que levou ao limite a necessidade de rápida adaptação, em um contexto de adoção massiva do trabalho remoto, os provedores de rede precisam oferecer soluções prontas de conectividade contínua em todos os pontos de contato. Para isso, contarão o com o efeito multiplicador do 5G e o aumento da capacidade de conexão, com o salto inevitável para 400 e 800 Gbits/s, até mais além, com volumes cada vez maiores de fibras para aumentar o desempenho da rede.

Uma das soluções para suportar o ritmo crescente do tráfego será o aumento da quantidade de fibras, que atualmente está na faixa de até 6.912 fibras por cabo. À medida que a demanda por largura de banda e as ofertas de serviço aumentam e a latência se torna mais crítica para o usuário final, será necessário aumentar a capacidades das redes.

A palavra-chave é equilíbrio, de modo que as infraestruturas de rede tenham o número de fibras adequado aos equipamentos, com boa manutenção e capacidade de gerenciamento, para apoiar o crescimento futuro, sempre com mais velocidade e baixa latência. Para isso é preciso definir, entre outros fatores, qual é a melhor tecnologia óptica.

Outro ponto importante é o salto para 400G, uma etapa no caminho evolutivo do data center. Atualmente já existem grupos de trabalho desenvolvendo soluções que consideram a conexões em 800G com o uso de oito transceivers de 100G. O grupo MSA 800G (que inclui empresas como a CommScope), atua com outros integrantes do IEEE na busca de soluções que suportem conexões de servidor de 100G por comprimento de onda usando fibra multimodo. O objetivo é que esses avanços sejam introduzidos no mercado este ano, e existe a expectativa de que até 2024 as  velocidades de transmissão possam chegar até  1.6 Tera.

Os serviços do data center evoluem, e as velocidades do servidor e do armazenamento precisam aumentar no mesmo ritmo. Assim, ao escolher os módulos ópticos que melhor atendem às necessidades da rede, é importante definir com precisão os serviços necessários para suportar as aplicações já existentes e as necessidades futuras.

O processo em direção a maiores velocidades no data center é gradual e, em geral, as mudanças devem ocorrer com base em atualizações regulares, levando-se em conta o custo e o tempo necessário para as implantações, com base em uma avaliação realista das demandas. É necessário adotar uma abordagem holística na qual switches ópticos e cabeamento de fibra trabalhem como um único caminho de transmissão coordenada.

A pressão sobre os data centers aumenta continuamente e o desafio é conseguir o equilíbrio entre servidores, switches e conectividade, em busca de mais velocidade e eficiência e custo mais baixo. Um dos pontos críticos é a camada física da rede, que saltará dos 200G e 400G para 800G e até acima disso, em um futuro próximo. Existem obstáculos tecnológicos a serem superados, e certamente isso ocorrerá, como sempre acontece neste mundo de evolução acelerada.

A pandemia acelerou a demanda por conectividade e essa tendência se manterá, com certeza, acompanhada da implantação de tecnologias como 5G, inteligência artificial, internet das coisas e computação em nuvem, que terão impacto na trajetória de expansão dos data centers. Para não perder o ritmo e manter-se à frente, será preciso contar com um parceiro tecnológico capaz de oferecer soluções que proporcionem benefícios no médio e no longo prazo, e que antecipe as necessidades e tendências futuras com agilidade para adaptar-se a novos cenários de negócios.

Seguro 3.0: o papel fundamental da tecnologia para o crescimento do mercado de seguros

Por Eduardo Nunes, consultor de Tecnologia da Informação da Provider IT

É cada vez mais comum a adoção da transformação digital e da digitalização nos mais diversos setores econômicos. Baseada no conceito de Seguro 3.0, a tecnologia tem se tornado uma grande aliada, também, para o crescimento do mercado de seguros no Brasil. Mesmo durante um ano conturbado em decorrência da pandemia da Covid-19, dados recentes da Confederação Nacional das Empresas de Seguros (CNseg) apontam que, somente no primeiro trimestre de 2021, o setor segurador arrecadou cerca de R$ 130 bilhões, valor 8,7% superior ao mesmo período de 2020.

Parte deste crescimento deve-se ao fato da ampliação do uso de ferramentas tecnológicas, que dão suporte aos processos e aprimoram os recursos disponíveis para o desenvolvimento das companhias deste setor. Neste sentido, esta atualização está diretamente relacionada ao conceito de Seguro 3.0, que direciona a transformação digital dentro deste mercado. Mas, para entendermos este conceito, é importante darmos dois passos atrás na evolução das seguradoras no Brasil.

A origem do conceito 3.0 no mercado de seguros

Para que exista o Seguro 3.0, existiram outros dois marcos na história do mercado de seguros no Brasil. O primeiro foi a chegada das companhias inglesas, no século XIX, que deram início a este setor, e que hoje é um dos mais consolidados do país. O segundo marco, que podemos entender como Seguro 2.0, teve início com a regularização do mercado, como a criação da Superintendência de Seguros Privados (SUSEP), por exemplo, e prolongou-se até a revolução tecnológica que vivemos hoje, com a expansão da internet, comércio eletrônico e o surgimento das insurtechs.

Diante deste cenário, o Seguro 3.0 surge como um conceito inovador, com objetivo de difundir a aplicação de tecnologias e transformar a maneira como as seguradoras oferecem produtos e serviços aos consumidores. De um modo geral, estas ferramentas possibilitam a criação de serviços personalizados e adequados aos clientes, com melhor preço para a seguradora e o menor para o usuário.

Se levarmos em consideração os produtos e serviços oferecidos pelas seguradoras hoje, os preços e as demais características do contrato são baseados em informações pré-existentes em um portfólio da própria empresa, alinhados a informações básicas sobre o contratante. Neste sentido, quando um seguro automotivo é contratado, por exemplo, a base de dados é referente às informações sobre o veículo, como marca, modelo e percentuais referentes a roubo, bem como endereço, região, idade e tempo de habilitação do motorista. Ou seja, a oferta de seguro é realizada em função de experiências da companhia e não, necessariamente, do cliente.

Com o Seguro 3.0 esse papel se inverte e o planejamento é baseado em dados aprofundados sobre o contratante. Isto é possível graças as inovações tecnológicas, que possibilitam a análise do grande volume de dados existentes e que antes não eram aproveitados pelas empresas. Isto é, os serviços passam a ser mais adequados às especificidades do cliente e não da seguradora, os preços passam a ser menores para os clientes, bem como melhores para as empresas, uma vez que elas conseguem diminuir os riscos utilizando uma base dados mais precisa, conhecendo os hábitos e aquilo que o segurado utiliza dentro dos serviços que estão sendo contratados.

Seguro 3.0 x Open Insurance

No mercado financeiro, o avanço tecnológico possibilitou a implementação de processos inovadores como Pagamentos Instantâneos (PIX) e, mais recentemente, o início do Open Banking. Nesta mesma linha de compartilhamento de dados, o mercado de seguros já se movimenta para a aplicação desta nova tendência com o surgimento do Open Insurance, que está sendo regulamentado pela SUSEP.

Open Insurance não diz respeito apenas a um conceito que explica e demarca um momento de desenvolvimento tecnológico dentro do setor segurador. Trata-se de uma ferramenta que está sendo desenvolvida e regulamentada com um conjunto de regras e determinações e que, por meio de API’s (Application Programming Interface), possibilitará a obtenção e o compartilhamento de dados e informações sobre os clientes de uma forma segura, sincronizada e estruturada, a partir, é claro, do consentimento ou solicitação deste usuário.

Desta forma, o Seguro 3.0 e o Open Insurance, mesmo que diferentes, contam com uma intersecção e isto mostra que o futuro do setor converge para um único ponto: o suporte da tecnologia para o desenvolvimento do mercado de seguros. Diante deste cenário, para que consigam se manter competitivas, as seguradoras deverão investir em inovação, recursos de inteligência artificial e digitalização, com objetivo de tomar decisões mais assertivas e oferecer produtos e serviços personalizados, que atendam as demandas deste novo mercado.

Uma jornada em busca do ESG

Por Francisco Perez

Muito tem se falado sobre os crescentes desafios ambientais e sociais que a humanidade está enfrentando. São frequentes os alertas sobre as consequências desses desafios para a economia mundial, como mudança climática, escassez de recursos, perda da biodiversidade, desmatamento, pobreza, desigualdade e desrespeito aos direitos humanos.

A importância desses temas é inegável. Ao redor do mundo, países, empresas e indivíduos participam de uma corrida saudável em busca de uma relação entre humanidade e planeta que seja sustentável a longo prazo. Em 2015, o relatório ‘O dever fiduciário no século XXI’, elaborado pela iniciativa PRI (Principles for Responsible Investments – Princípios para Investimentos Responsáveis), da ONU, corroborou entendimento de um parecer jurídico emitido em 2005, da própria entidade, e esclareceu que “é uma quebra do dever fiduciário não considerar geradores de valor de longo prazo, inclusive questões ambientais, sociais e de governança (ESG) na gestão de recursos”. Esse posicionamento tem impulsionado instituições financeiras e gestores de recursos a embarcarem na jornada por uma sociedade mais responsável e sustentável. 

No Brasil, já podemos observar diversas iniciativas implementadas por instituições financeiras tradicionais que vêm repensando suas políticas e produtos para estarem alinhadas às diretrizes ESG. Isso, sem dúvida, representa um ganho muito importante e já se reflete na cadeia financeira. A prova disso é que a maioria das fintechs criadas atualmente trazem, entre suas principais preocupações, dar respostas às questões ambientais, sociais e de governança. 

Um levantamento recente, realizado pela empresa de pesquisa sobre investimentos Morningstar, mostrou que foram criados 85 produtos considerados sustentáveis no ano passado, tendo um aumento significativo quando comparamos com 2019, que foram originados apenas seis. O valor captado foi igualmente expressivo, totalizando R$ 2,5 bilhões.  

Apesar destes números serem animados, não podemos negar que ainda existe um longo percurso a ser percorrido para que estas práticas sustentáveis estejam, de fato, difundidas no mercado. Além disso, é importante considerar que a maioria de nós não age de forma irresponsável ou insustentável voluntariamente, mas sim por falta de alternativa, conhecimento ou ambos. 

Por isso, precisamos praticar a inclusão, sobre a qual tanto se discute nos últimos anos, e abraçar países, empresas e indivíduos aos quais ainda não foram permitidos adquirir o conhecimento ou alcançar o estágio de maturação necessário para adotarem as melhores políticas e exercerem as práticas mais eficazes para que a existência da humanidade neste planeta possa ser chamada de sustentável. Que sejam bem-vindas todas as iniciativas nesse sentido e que sejamos tolerantes com os diferentes estágios de entendimento e as dificuldades daqueles que se propõem a iniciar a jornada, mas ainda não encontraram o caminho.

Aprendamos com o exemplo das iniciativas de inovação aberta que proliferaram entre as organizações na última década e encontraram na colaboração a fórmula para inovar, se reinventar e sobreviver. Colaboremos também todos nós, governos, empresas e indivíduos, para que novas formas de organização da sociedade e condução dos negócios floresçam e permitam que encontremos mais justiça e menos desigualdade num planeta mais saudável.

Governos, criem medidas que penalizem as práticas não sustentáveis e incentivem as mais responsáveis por parte de empresas e indivíduos. Empresas, exerçam relações mais humanas com a sociedade, representada por empregados, fornecedores, clientes, governos e comunidades. Indivíduos, assumam responsabilidades nos papéis de cidadãos, consumidores, investidores e educadores. 

Francisco Perez, diretor de Novos Negócios do Banco Alfa

Decisão da Justiça Federal permite crédito de PIS e Cofins sobre gastos com LGPD

Por Bruno Spinella de Almeida, diretor da VSM Advogados Associados

Uma decisão inédita, da 4ª Vara da Justiça Federal, de Campo Grande (MS), em favor de uma empresa de moda, considerou, para fins de crédito de PIS e Cofins, os investimentos feitos para atender à Lei Geral de Proteção de Dados (LGPD).

A tese utilizada na decisão é a de que a implementação de ferramentas de privacidade é essencial e, por isso, deve gerar créditos das contribuições sociais.

 A decisão da JF tem como base sentença de 2018, do Superior Tribunal de Justiça (STJ), que definiu que tudo que é essencial à atividade econômica de uma empresa está apto a gerar crédito.

O juiz federal Pedro Pereira dos Santos enfatiza na decisão: “Desse modo, é o ´teste de subtração´ que revelará a imprescindibilidade e a importância do bem no processo produtivo, somente havendo falar em caracterização como insumo quando a subtração do bem ou serviço em questão resultar na impossibilidade de realização da atividade empresarial ou, no mínimo, lhe acarretar substancial perda de qualidade”.

VALOR DO CRÉDITO

 A decisão judicial em favor da empresa destaca que o crédito é de 9,25% sobre os valores utilizados na implementação da LGPD, no regime não cumulativo.

Vale lembrar que um estudo da consultoria PwC Braisl aponta que o gasto médio das empresas com a nova lei de proteção de dados varia de R$ 50 mil até 800 mil. Isso para pequenas e médias.  Já nas grandes empresas varia de R$ 1 milhão e R$ 5 milhões.

A LGPD – Lei nº 13.709 –, como se sabe, impõe às empresas a adoção de uma série de medidas, visando a proteção dos dados de colaboradores, parceiros, clientes.

SEGURANÇA JURÍDICA

A nova lei cria um cenário de segurança jurídica, com a padronização de normas e práticas, para promover a proteção, de forma igualitária e dentro do país e no mundo, aos dados pessoais de todo cidadão que esteja no Brasil. Praticamente todas as empresas, dos mais variados segmentos, serão impactadas.

Resta aguardar os próximos capítulos dessa discussão, uma vez que a decisão da JF será contestada pelo órgão arrecadador. No entanto, deve abrir precedente ao considerar gastos com a LGPD como “insumo” para efeito de crédito de PIS e Cofins.

O Vale do Genoma, as startups e as grandes empresas

Por Paulo Humaitá, Fundador e CEO da Bluefields

Em junho, a ideia saiu do papel, o Vale do Genoma foi lançado e finalmente se tornou uma realidade. A iniciativa de quádrupla hélice, que envolve governo, sociedade civil, universidade e empresas, é um pequeno passo para algo gigante que precisa ser observado de perto. Tal realização, coloca Guarapuava pareando o mundo em algo totalmente disruptivo, a combinação entre estudos genômicos e inteligência artificial. A revolução da ciência combinada ao uso do mapeamento genético e sua aplicação em diversas áreas, impulsionam a indústria brasileira em uma nova perspectiva e nos colocam em outro patamar. Pois é, o Paraná não para!

O estudo do genoma está interligado à inovação dos setores: saúde, agro e pecuária. Estas são soluções conectadas à convergência Biodigital, a meu ver, o presente e o futuro das startups brasileiras. Segundo o Cepea (Centro de Estudos Avançados em Economia Aplicada), mais de 26% do PIB brasileiro está ligado ao agronegócio, e em time que está ganhando só mexe para continuar campeão. O Brasil tem um dos melhores sistemas de pesquisas do mundo; apesar disso, um dos grandes problemas é fazer a conexão do mundo da academia com as parcerias privadas, por isso digo que o Vale do Genoma chegou para fazer esta ponte de uma maneira rápida e prática. Durante as primeiras semanas de julho, tenho participado como avaliador convidado da Vitrine Tecnológica, onde pesquisadores apresentam, no formato de um pitch, os avanços e maturidade tecnológica. Em um espectro muito rico de novas possibilidades: do campo no mapa genético da soja à saúde humana em tratamentos do câncer.

Serão 223 pesquisadores aplicando pesquisa diretamente onde o desafio se encontra. Seja no desenvolvimento de um remédio que contribua para o alcance de uma melhor qualidade de vida, no controle de uma praga que surgiu e é específica em alguma plantação, para alterar geneticamente alimentos e torná-los ainda mais nutritivos ou auxiliar em novos tipos de rações para aprimorar a qualidade de produtos de origem animal. São muitos os exemplos e, da mesma forma que é necessária a atuação dos pesquisadores, os empreendedores brasileiros são peças fundamentais para transformar o conhecimento em produto e aplicá-lo ao mercado. O futuro do ecossistema brasileiro de inovação passa pelo Vale do Genoma.

A Embrapa (Empresa Brasileira de Pesquisa Agropecuária) já criou a atmosfera necessária que alinha os interesses científicos com as empresas privadas: há um incentivo enorme para o lado das agtechs; o Vale do Genoma é mais um chamado para animar e capacitar o sonho de empreender, alinhado aos melhores players do mercado brasileiro. É necessário reforçar isso nas universidades, outro ambiente com possibilidade de empreender – e suas incubadoras – e continuar essa discussão na sociedade civil que, por vezes, sofre com algum problema na prática, mas não sabe o caminho para buscar a solução e, claro, o estado deve ser um dos caminhos para reunir todos esses interesses em projetos e colocá-los para evolução, ainda mais num país como o Brasil, que tem em seu gargalo a ciência e a tecnologia.

Para além dos novos empreendedores, deve-se dizer que as empresas Jacto e Repinho são as primeiras a investir capital e desenvolver projetos no Vale. As empresas brasileiras já consolidadas devem também apostar neste projeto robusto. É o futuro e é agora. Todos esses setores que mencionei são perenes e estão em constante processo de transformação; a sagacidade de estar presente nas tendências antes de acontecerem, só ocorre quando a transformação é pauta das corporações.

Por fim, viva a bioinovação brasileira. Vida longa ao Vale do Genoma, e que iniciativas grandiosas como essa sejam apenas uma semente para tantas outras que este grande país é capaz de realizar.

Escalando a Indústria 4.0 com IA e nuvem híbrida

Por Camilo Rojas, responsável pelas plataformas Information Architecture& Cloud Pak for Data na IBM América Latina

A inteligência artificial (IA) está se tornando cada vez mais sofisticada. Para organizações de todos os tamanhos, isso significa que podem usá-la com mais facilidade para ajudar a resolver problemas cruciais e complexos.

No cenário desafiador do ano passado, a IA desempenhou um papel de destaque. Os varejistas a usaram para agilizar remessas de pedidos, reimaginar suas lojas como centros de distribuição e garantir que os consumidores pudessem acessar os produtos, mesmo quando as compras nas lojas foram totalmente suspensas. No setor de serviços, a implantação da IA ​​cresceu para ajudar a manter as redes elétricas em funcionamento, gerenciando problemas como o risco com a vegetação ou ações preventivas diante de eventos climáticos adversos. A IA também está nos ajudando a construir melhor, analisando e rastreando requisitos complexos de engenharia para equipamentos como aviões, respiradores e naves espaciais, usados ​​em situações que não admitem falhas.

É precisamente quando a IA é combinada com outras tecnologias habilitadoras que começamos a ver alguns dos caminhos que se abrem para o que chamamos de Indústria 4.0. Quando combinada com a Internet das Coisas, a IA pode analisar dados dos sensores e prever falhas de ativos industriais, como equipamentos de fábrica, sistemas de ar-condicionado e linhas de montagem. Pode também otimizar a programação da ordem de serviço de ativos, analisar riscos de falha e permitir que os gerentes priorizem os reparos com base em critérios diferentes. A inspeção visual está sendo usada para detectar defeitos de fabricação e ajudar a manter a segurança do trabalhador graças à análise de vídeo em tempo real.

Câmeras, balizas e sensores podem monitorar uma instalação 24 horas por dia, sete dias por semana. Com a ajuda da inteligência artificial que pode separar o sinal do ruído, as organizações podem garantir que informações valiosas não sejam perdidas e começar a automatizar partes cada vez mais complexas de seus processos de manufatura e produção. Esses componentes básicos da Indústria 4.0 já estão maduros e prontos para serem implantados nas empresas se forem acompanhados do investimento necessário em infraestrutura digital para sustentá-los.

Abrindo caminho para a Indústria 4.0 com nuvem híbrida

As tecnologias de IA e IoT são dois dos pilares fundamentais da automação industrial em grande escala, o que chamamos de Indústria 4.0. No entanto, escalar qualquer uma dessas aplicações também representa novos desafios que exigem um terceiro componente: a nuvem híbrida.

Vamos pensar no número de fontes de dados que podem estar em um único chão de fábrica, desde sensores de calor e de ocupação até câmeras que gravam dados visuais e monitoram a segurança do local de trabalho. Se extrapolamos isso para uma organização maior com várias instalações diferentes, talvez até tipos diferentes de instalações, a quantidade de dados a serem processados​​ aumenta exponencialmente. Os modelos de IA necessários para classificar todos os dados tornam-se muito mais complexos. E talvez o mais importante é que o tempo passa a ser uma variável fundamental: um modelo capaz de indicar somente depois de um mês que houve uma aglomeração de funcionários em um determinado corredor não é particularmente útil. Para tirar proveito dos insights preditivos, deve haver a capacidade de agir com base nesses insights imediatamente, o que significa ser capaz de realizar cálculos na borda, onde esses insights são coletados.

Esses três componentes, a capacidade de coletar e armazenar grandes e variáveis ​​quantidades de dados, a capacidade de executar modelos ou outro software nesses dados e a capacidade de fazer isso em qualquer lugar que quiser exigem uma pegada de infraestrutura que se estende da borda ao centro de dados e a nuvem. Para ser eficiente, é necessário um plano de gerenciamento perfeito em toda a infraestrutura. A nuvem híbrida facilita isso com uma plataforma comum baseada em contêiner que pode ser executada em todos os locais de infraestrutura. Oferece a capacidade de escalonar automaticamente com base em suas cargas de trabalho. E oferece a flexibilidade de executar sua plataforma em qualquer nuvem, pública, privada ou na borda.

Em um contexto de Indústria 4.0, a nuvem híbrida é o que conecta os pontos. Ela disponibiliza os dados, a inteligência artificial, as ferramentas e o software dos quais seus funcionários precisam, onde eles precisam. E quanto mais fácil é a tarefa para as pessoas, mais tempo, atenção e capacidade podem dedicar à resolução de problemas mais interessantes, complexos e caros.

Você está valorizando ou desperdiçando o tempo do seu cliente?

Por Maíra Gracini, diretora sênior de Marketing da Zendesk para a América Latina

O isolamento social afetou o mundo todo no decorrer do último ano e trouxe à tona a importância de nos mantermos em contato com as pessoas, seja via videoconferência, conversas de WhatsApp ou pelas mídias sociais. Mais do que interagir, a velocidade dessa troca se tornou essencial para trazer a proximidade que tínhamos frente a frente.

Se no ano de 1.500 foram necessários 40 dias para que a carta de Pero Vaz de Caminha, chegasse ao rei de Portugal, anunciando a descoberta de novas terras, hoje levaria poucos segundos para receber uma mensagem. E com isso ficamos mais impacientes, seja com aplicativos de caronas que demoram 5 minutos para chegar ou uma mensagem de e-mail sem resposta por algumas horas. A evolução da tecnologia desde então foi um agente de transformação para sermos ágeis em todos os aspectos, e a necessidade das pessoas acompanhou essa jornada.

Não foi uma surpresa que o uso de WhatsApp para falar com as marcas cresceu 327% na América Latina desde o início da pandemia, ou que a velocidade e a simplicidade de uma experiência online com um serviço fosse determinante para 82% dos clientes gastarem mais com uma marca no ano passado, como apontou o estudo CX Trends 2021.

Afinal, se um cliente que perdeu sua conexão à internet busca a operadora para resolver seu problema, a última coisa que ele deseja é esperar na linha, ser passado de atendente em atendente ou precisar repetir informações mais de uma vez. O que ele quer é ser ouvido na hora que ele busca o contato e saber que o problema será resolvido. E mais, que seja no canal que ele mais costuma usar para tornar mais fácil e rápido esse contato, por telefone, WhatsApp ou mídias sociais. É a conveniência ligada à agilidade.

A brasileira Loft, por exemplo, se tornou uma das startups do ramo imobiliário mais valiosas no mundo e um dos grande diferenciais deles foi na agilidade. E não apenas na transformação do modelo de negócios, mas também no atendimento e proximidade com os clientes. Ao adotar recursos que possibilitaram unificar os dados e canais de contato dos clientes em uma única tela e novas estratégias de priorização de chamados, a empresa reduziu o tempo de resposta via e-mail para apenas 15 minutos e de telefone para 10 segundos. E os clientes percebem essa diferença.

Adotando uma operação ágil

Recentemente, o tema de agilidade e experiências foi debatido por especialistas durante o evento Zendesk On Air, e trouxe à tona alguns elementos importantes para ser ágil na relação com clientes.

Se olharmos para empresas que se adaptaram com agilidade à pandemia e se tornaram exemplos de uma boa experiência, encontramos o cliente e a agilidade no centro da cultura de gestão. E quando se tem isso dentro de casa, estender boas experiências ao cliente se torna um passo natural. Não adianta implementar novas ferramentas e deixá-las abandonadas. É preciso investir continuamente para escalar e adaptar a tecnologia conforme o negócio se transforma, além de treinar as equipes para tirar o melhor proveito das ferramentas, e isto é definido por uma liderança que prioriza a agilidade e o cliente. 

Alinhando sua empresa com as tendências de consumo

A pesquisa CX Trends 2021 mostrou que 68% dos agentes de atendimento ao cliente nas empresas latinoamericanas estão sobrecarregados e 48% sentindo falta dos recursos certos para serem eficientes no trabalho à distância. E queira ou não, isso vai impactar diretamente na velocidade com que atendem e resolvem os problemas dos clientes. São tecnologias que entregam vantagens como automação, visão da jornada e dos dados do cliente e recursos de comunicação com outras áreas.

Automação e personalização

A automação e a inteligência artificial, por exemplo, estarão cada vez mais presentes para dar agilidade no contato com clientes, possibilitando direcionar chamados comuns para canais de autoatendimento e chatbots, onde conseguem acessar informações, emitir vias, realizar pagamentos e resolver uma série de questões menos complexas de forma rápida e fácil. E para os times de atendimento, significa mais tempo para dedicar a casos prioritários. 

Tenha em conta que o aumento do uso da inteligência artificial deve pavimentar o caminho para que nós, humanos, utilizemos nosso tempo cada vez mais para o que nos faz ser únicos: nossa criatividade e as conexões sociais que criamos.

A personalização também se tornou outra estratégia para aliar agilidade a uma boa experiência. Ao adotar tecnologias que capturam e centralizam dados dos clientes e de toda a jornada deles com a marca, é possível identificá-los dentro dos canais de contato e tratá-los de uma forma muito mais pessoal, muitas vezes identificando o problema a ser resolvido antes do próprio cliente se manifestar. 

Portanto, ser ágil e adotar tecnologias que suportem isso significa criar caminhos para se aproximar cada vez mais dos clientes e entregar as experiências que esperam ter de uma marca hoje em dia. Chegou a hora em que as empresas já possuem propriedade para se questionarem se estão valorizando o tempo do cliente ou desperdiçando. E isso fará toda a diferença quando ele se lembrar da marca.

Como a biometria comportamental reduz os gastos com sistemas antifraude?

Por Rodrigo Castro


A biometria comportamental é um modelo altamente disruptivo para a detecção e o rompimento de fraudes em plataformas digitais. Essa tecnologia é capaz de detectar ações maliciosas em tempo real, milissegundos após o login do usuário, permitindo a tomada de decisão imediata para o bloqueio de transações e dos usuários. Esta característica, além de melhorar sensivelmente os modelos antifraude das organizações, também tem o potencial de reduzir os gastos totais com mecanismos de proteção.

Grande parte das empresas utiliza padrões transacionais para a detecção de fraude, ou seja, modelos que coletam dados de uma transação que são avaliados em bureaus, somados às regras de decisão ou de aprendizado de máquina, e retornam uma pontuação de risco. Geralmente essas soluções são cobradas por transação e os valores não são baixos. Há empresas que gastam dezenas de milhões de reais por ano para garantir a segurança dos seus processos, enviando todas as operações para avaliação. E é neste momento que a biometria comportamental pode fazer a diferença na redução dos custos.

Por ser uma solução de assinatura anual e fixa, atuando durante a navegação do usuário, ou seja, antes da transação ser realizada, a pontuação de riscos em tempo real permite que, ao chegar na transação, aquela sessão já tenha sido identificada em seu grau de risco de fraude. Logo, sessões com baixo ou alto risco podem ser tratadas sem necessidade de envio para modelos transacionais, deixando apenas as sessões com pontuação pouco firmes para a identificação da fraude.

Para exemplificar o funcionamento desse sistema, vamos supor que a biometria comportamental identifique claramente que há uma apropriação de cadastro, o qual o fraudador conseguiu acesso a uma sessão de usuário e rapidamente altera dados de endereço, e-mail e executa uma transação de compra com o uso de robôs. Este comportamento será certamente detectado como alto risco de fraude e, por isso, a transação sequer precisaria ser endereçada para modelos transacionais, reduzindo gastos com essas plataformas.

Um outro exemplo seria o onboarding de novos clientes. Se o fraudador está usando um dispositivo com sistema de automação para cadastros em massa, acessando dezenas ou centenas de sessões nele, realizando os cadastros com uma fluência anormal na digitação das informações, a biometria comportamental irá provavelmente tratá-la como alto risco, não sendo necessário enviar os dados do cadastro para validação de veracidade. Além disso, por conta dos recentes vazamentos de dados, é bem provável que os modelos transacionais aprovem o cadastro, pois o fraudador estaria usando informações roubadas.

Sendo assim, os modelos de biometria comportamental para detecção de fraudes, além de terem a capacidade de detectar fraudes em tempo real e com maior assertividade, também podem ser usados para redução dos gastos gerais das estruturas de antifraude das organizações.

Rodrigo Castro, diretor de Business Performance & Innovation (BPI) na ICTS Protiviti

Quer motivação da equipe? Sabe o que o líder conatus faz?

Por Leandro Franz, sócio e consultor da People+Strategy

São em momentos difíceis que se descobrem as verdadeiras lideranças. E cada vez mais, com equipes de gerações e mentalidades mais diversas, com novas culturas e tecnologias, o desafio de liderança só tende a aumentar. Um caminho possível de resposta pode ser prestar mais atenção aos afetos, à individualidade de cada membro do time.
Spinoza é conhecido como o filósofo dos afetos, tendo dissecado dezenas deles (amor, ódio, melancolia, ciúme, soberba, inveja, desejo etc.). Viveu em Amsterdã no séc. XVII, morreu aos 44 anos com uma obra imensa escrita e teve Einstein como seu seguidor mais famoso.


Um grande aprendizado de sua filosofia que pode ser trazido para o mundo corporativo é o conatus, um conceito que descreve a potência de cada pessoa, sua força de perseverar. Tudo o que acontece conosco afeta nosso conatus positivamente (gerando alegria e contentamento) ou negativamente (gerando dor e melancolia). E, da mesma maneira que temos paladares e gostos diferentes, cada individualidade tem seu “ritmo” de resposta a bons e maus encontros.
A cada minuto, somos afetados tanto de fora para dentro quanto de dentro para fora. Segundo Spinoza, “quando a mente é tomada de algum afeto, o corpo é, simultaneamente, afetado por meio da qual sua potência de agir é aumentada ou diminuída.”


Internamente, nossos pensamentos e funções biológicas fazem nosso conatus flutuar. Se você tem sede e pode tomar uma água, sente alegria. Se não tem como matar a sede, sente dor. Se você fica relembrando de um erro que cometeu, pode sentir vergonha e, com isso, baixar seu conatus. Se por acaso lembra de alguma conquista, fica satisfeito consigo mesmo e eleva seu conatus.


Do lado externo, ainda mais durante uma grande tragédia como a epidemia do covid-19 em que vivemos, somos afetados sucessivamente no encontro (hoje mais virtual) com outras pessoas, por notícias e eventos. Cada encontro desses afeta nossa força de perseverar. E aí entra o papel do líder em impulsionar positivamente o conatus de sua equipe. Com tantas más notícias, tantos medos e dores, como garantir que, ao menos no trabalho, todos tenham suas potências aumentadas?

Um conatus negativo pode levar a baixo desempenho e a novos conflitos que, em outros contextos, não emergiriam. Por mais “boa vontade” e ânimo que cada um tenha para trabalhar, por mais automotivação e discursos inspiradores, Spinoza afirma que ainda somos frágeis em relação ao mundo externo: “a potência humana é bastante limitada, sendo infinitamente superada pela potência das causas exteriores.”


Mas o que um verdadeiro líder pode fazer? O primeiro passo é reconhecer que cada evento, cada encontro afeta de modo diferente cada membro da equipe. É o famoso ditado popular, também citado por Spinoza em seu livro Ética: “cada cabeça, uma sentença”. Então, você conhece o que aumenta ou diminui o conatus do seu time? Quem se empolga com um novo desafio inesperado e quem se desestabiliza? Como está o momento do seu time? Você gerencia individualmente as diferentes reações aos afetos externos que seu time recebe e reconhece alavancas para cada colaborador?

Ao identificar o que aumenta a potência e a particularidade de cada um, o líder se torna mais próximo, mais inspirador e gera confiança para atravessar momentos difíceis. Ao ouvir, reconhecer e atuar sobre o que aumenta a “força de perseverar” de seu time, você melhorará o clima, a colaboração e os resultados, tornando-se um líder spinoziano, um verdadeiro transformador de conatus. E as complexidades da interações e culturas corporativas atuais demandam esse novo tipo de liderança.

Cinco motivos que reforçam a importância da gestão de recursos em TI durante a pandemia

Por Otto Pohlmann, CEO da Centric Solution

Sem ela, a vida seria muito mais difícil durante a pandemia de covid-19. Suspender atividades e eventos presenciais trouxe impactos negativos, sem dúvida, mas a tecnologia permitiu que as pessoas pudessem comprar, trabalhar, aprender e até se divertir sem ter que sair de casa. Isso implica maior presença das diversas soluções nas relações sociais – e no ambiente corporativo não é diferente.

A transformação digital, que já era tendência importante nas empresas antes do novo coronavírus, tornou-se vital atualmente. Mais do que investir em ferramentas, as organizações precisam administrar adequadamente todos os seus recursos tecnológicos para conseguir extrair o máximo de eficiência sem comprometer ainda mais seus processos. A gestão de TI, como se vê, nunca foi tão importante quanto agora. Veja cinco motivos que reforçam isso:

1 – É preciso fazer mais, com (muito) menos

Em um primeiro momento, a pandemia suspendeu a grande maioria dos negócios, que foram retomados de forma gradual nos meses seguintes. A despeito das incertezas econômicas, as empresas precisaram continuar produzindo e vendendo, mesmo com grandes quedas nas receitas. Em outras palavras: foi preciso ser certeiro e eficiente, entregando o mesmo resultado com menos custos para não comprometer a operação. Isso só foi possível com o apoio adequado de soluções tecnológicas, capazes de automatizar processos e permitir que a produtividade continuasse em alta.

2 – Agilidade e rapidez na tomada de decisão

Antes até era recomendado aos empresários refletirem sobre os cenários e analisarem o maior número de dados possível antes de tomar uma decisão. Hoje ter esse tempo disponível é praticamente um luxo. As transformações são cada vez mais rápidas, e as empresas precisam acompanhar essa velocidade se quiserem aproveitar todas as oportunidades. Com a gestão dos recursos de TI, é possível direcionar – e utilizar – as ferramentas nas áreas mais necessitadas, permitindo resolver problemas e extrair insights rapidamente para embasar as melhores decisões.

3 – Maior segurança de dados 

As relações sociais, incluindo o trabalho, estão mais dependentes da tecnologia. Isso traz maior eficiência, sem dúvida, mas também novas ameaças ao mundo corporativo. A principal delas é o ataque de cibercriminosos, que buscam roubar dados sigilosos das organizações, seja para receber valores financeiros, seja para simplesmente arranhar sua imagem no mercado. A maior proteção das informações e da estrutura depende de uma gestão completa da infraestrutura de TI, identificando quais equipamentos estão mais vulneráveis e monitorando possíveis invasões em todos os locais.

4 – Mudança de papel da TI nas empresas

O avanço do novo coronavírus suplantou de vez nas corporações o papel secundário que o gerenciamento de TI tinha na estratégia do negócio. Antes esse departamento era visto como algo complementar às áreas mais importantes, dando suporte de equipamento à produtividade e à operação da empresa. Agora a situação se inverteu. Não importa o porte ou o segmento de atuação: todas as companhias precisam colocar as soluções tecnológicas em posição de destaque em suas estratégias. Vai ser por meio delas que irão superar a fase difícil da pandemia e crescer quando a situação se normalizar nos próximos anos. 

5 – Política de governança em dia

Se a área de TI vai ocupar papel central nas estratégias de negócio, evidentemente é preciso ter políticas de boa governança em relação ao uso de todas as soluções. Compliance é um termo ainda novo, mas já ganha espaço no ambiente corporativo justamente por fornecer esse controle e respeito às normas e regras do setor. Deve-se garantir que os sistemas estejam alinhados às boas práticas e sejam capazes de entregar os melhores resultados respeitando sempre os consumidores e demais stakeholders das organizações.

O que a pandemia nos ensinou sobre estoques?

Por Victor Tubino


As empresas tiveram sua resiliência operacional testada durante a pandemia da Covid-19, tendo que se adaptar internamente e reavaliar suas relações com fornecedores e parceiros. Devido à redução e à interrupção temporária do fluxo de transportes, seja por via aérea ou marítima no âmbito internacional ou nacional, muitas organizações sofreram impactos de disponibilidade de insumos. Apesar das empresas se preparem e gerenciarem seus estoques para variações de demanda, a pandemia trouxe este tema para uma discussão mais ampla.

Um dos modelos mais difundidos de gestão de estoque é o Just In Time, no qual a empresa deve manter o estoque mínimo. Essa estratégia é muito utilizada para reduzir os custos de armazenagem e de gerenciamento de estocagem, permitindo que, em casos de variações negativas na demanda, os desperdícios sejam reduzidos. Neste modelo é necessário que, em casos de variações positivas na demanda, haja parceiros e fornecedores ágeis para não perder oportunidades. As organizações que adotaram este modelo e possuíam estoques para apenas um dia ou horas ou com cadeias de suprimentos internacionais foram as primeiras a sentirem rupturas.

De acordo com a pesquisa The Supply Chain Resilience Report 2021 do Business Continuity Institute (BCI), que foi realizada com 173 respondentes de 62 países, 72% das organizações sofreram algum tipo de ruptura. Dessas, 84% foram motivadas por problemas alfandegários rodoviários internacionais, 65% por atrasos em rotas marítimas e 63% no modal aéreo. Os fluxos internacionais foram os que mais tiveram impacto devido às diferenças entre as políticas sanitárias, as medidas restritivas e o cenário da pandemia em cada país. Nessa mesma pesquisa, cerca de 25% das organizações relataram que a adoção do modelo Just in Time (JIT) foi responsável pela ruptura.

Nesse contexto, conforme o relatório BCI’s Future of Supply Chain Post-COVID-19 Report, cerca de 20% das empresas estão reavaliando aumentar seus estoques com o objetivo de estarem mais preparadas para possíveis rupturas, apesar de aumentarem seus custos de armazenagem. Essa lógica é conhecida pelo modelo Just in Case, caracterizado por manter um estoque de segurança maior do que o necessário para poder suprir rapidamente as consequências das rupturas. Importante ressaltar que dentro de um modelo de gestão de estoques é necessário considerar o viés de riscos computando insumos, matérias-primas e peças de reposição críticas ao negócio, além das dependências diretas e indiretas de parceiros e fornecedores.

No recorte específico das estratégias de manutenção, muitas vezes não sendo alvo das análises de riscos, é fundamental que sejam avaliadas: máquinas de produção, armazenagem, equipamentos refrigerados, bem como ativos de TI e Data Center, entre outros que afetam direta ou indiretamente o negócio. Vale ressaltar que as restrições ou dificuldades regulatórias e disponibilidades com fornecedores também são objetos de análise.

Victor Tubino, gerente sênior da prática de riscos e performance na ICTS Protiviti

Desafios e oportunidades do nosso futuro Quântico

Por Fabio Rua, Government and Regulatory Affairs Director, IBM América Latina

O mundo está à beira de outra revolução computacional que será impulsionada pela convergência de tecnologias poderosas: computação de alto desempenho, IA e computação quântica.

A computação quântica não é simplesmente uma maneira mais rápida de fazer o que os computadores de hoje fazem – é uma abordagem fundamentalmente diferente que promete resolver problemas que a computação clássica nunca pode resolver de forma realista. Ele mantém a promessa de ajudar a humanidade a enfrentar muitos desafios importantes, desde a solução de questões antigas da ciência até a superação de obstáculos para melhorar a eficiência industrial. Trabalhando em conjunto com computadores clássicos e arquiteturas baseadas em nuvem, os computadores quânticos podem até ser a resposta para problemas com os quais ainda não sonhamos. As oportunidades para a sociedade e a economia são potencialmente ilimitadas.

A computação quântica pode ajudar a agilizar a resposta a futuras pandemias, crises de saúde em andamento e a proliferação de doenças debilitantes que afetam milhões em todo o mundo, por meio de simulações químicas amplamente aprimoradas na descoberta e desenvolvimento de medicamentos. Será capaz de melhorar a precisão da simulação da dinâmica de fluidos computacional, permitindo abordagens de baixo custo para aprimorar os processos de design industrial. E pode ajudar a otimizar estratégias de investimento de portfólio, usando técnicas de modelagem avançadas que podem analisar melhor o comportamento de mercados financeiros complicados.

O dilema da Criptografia

Conforme detalhado em um estudo recente de IBM Research, os avanços na computação quântica acabarão por apresentar um desafio significativo à segurança da informação. O mundo já depende fortemente da criptografia para proteger os dados infraestruturas crítica e, à medida que fazemos a transição para uma era em que os computadores quânticos se tornam mais onipresentes, as plataformas digitais que estão sendo projetadas e implementadas hoje podem se tornar cada vez mais vulneráveis ​​se a criptografia de segurança de nível quântico não for desenvolvida e adotada ao mesmo tempo.

O mundo ainda está muito longe de possuir computadores quânticos capazes de quebrar a criptografia amplamente usada hoje. E já sabemos como executar uma criptografia resistente a ataques em computadores quânticos. No entanto, esses algoritmos básicos de segurança quântica são apenas o começo. Muitos padrões e protocolos de segurança da indústria precisam ser atualizados para esses novos algoritmos e os avanços na computação quântica precisarão coincidir com os avanços na criptografia quântica, garantindo que os dados estejam protegidos, hoje, contra ameaças futuras.

Prepare-se para o futuro, no presente

Os formuladores de políticas e a indústria devem procurar mitigar esses riscos preparando-se para o futuro no presente.

A IBM está agindo. Nossos pesquisadores estão desenvolvendo soluções criptográficas práticas que são resistentes às ameaças representadas por computadores quânticos. Encontramos vários esquemas criptográficos que atualmente são considerados seguros para a era quântica. Isso inclui criptografia baseada em grade (lattice)hash trees, equações multivariadas e curvas elípticas de isogenia super-singular.

A principal vantagem de tais esquemas de segurança quântica é a ausência de estrutura explorável no problema matemático que um invasor precisa resolver para quebrar a criptografia. Certos esquemas de segurança quântica são à prova de futuro contra-atacantes particularmente pacientes que armazenam as mensagens criptografadas de suas vítimas hoje para descriptografá-las com métodos mais poderosos no futuro. Outros esquemas podem permitir tecnologias que mudam o jogo, como criptografia totalmente homomórfica, na qual os dados podem ser diretamente computados em sua forma criptografada, bloqueando uma estratégia comum dos invasores de permanecer no sistema de computador da vítima até que os dados confidenciais tenham que ser descriptografados para realizar cálculos.

Prontidão Quântica

Empresas e governos visionários estão se preparando para um futuro de computação quântica e se posicionando para aproveitar os muitos benefícios dessa tecnologia. Governos, pesquisadores, acadêmicos e a indústria precisarão trabalhar juntos em políticas para acelerar a adoção de novos currículos educacionais, financiar P&D, criar novos canais de talentos e muito mais.

Enquanto os governos procuram liderar a computação quântica, os formuladores de políticas devem considerar as seguintes recomendações:

• Os governos devem recomendar agora a adoção de criptografia segura para computação quântica, para enfrentar ameaças futuras aos dados que são criptografados hoje.

• As organizações de desenvolvimento de normas e seus membros devem acelerar os esforços em torno de novos esquemas criptográficos seguros na era quântica e priorizar os fluxos de trabalho para estabelecer uma infraestrutura quântica segura.

• As agências governamentais devem acelerar o desenvolvimento de computadores quânticos por meio de investimentos significativos, sustentados e focados em longo prazo na ciência da informação quântica para garantir que sua nação esteja posicionada na vanguarda da corrida da computação quântica.

• As agências governamentais devem apoiar a implantação rápida de sistemas quânticos avançados e confiáveis, e estar entre os primeiros a adotar, para ajudar a impulsionar o desenvolvimento e permitir um ecossistema para pesquisa, desenvolvimento e comercialização de software e algoritmos.

• Os governos devem promover uma estrutura colaborativa que envolva laboratórios nacionais, universidades, indústria e parceiros internacionais para o avanço da tecnologia e construção de vantagem competitiva.

• Os governos devem ajudar a construir um ecossistema de tecnologia e uma cadeia de suprimentos robusta para a indústria quântica e promover a educação e o treinamento da força de trabalho necessários para tornar a indústria sustentável.

• As organizações de desenvolvimento de normas devem priorizar a atualização de padrões relevantes para o sistema, como os da indústria de infraestrutura crítica e do setor financeiro.

* Este texto é uma adaptação do blog post assinado por Ryan Hagemann, Codiretor, IBM Policy Lab & Zaira Nazario, Líder Técnica, Teoria Quântica, Algoritmos e Aplicativos, IBM Quantum, que pode ser acessado aqui.

A Ciência e a Universidade como alavancas históricas do desenvolvimento

Por Elcio Abdalla

O advento da Universidade de pesquisa foi o grande motor da ciência nos últimos dois séculos em todo o planeta. Foi ela que permitiu que a renda per capita e a expectativa de vida do habitante da Terra, que foi a mesma durante mais de 1.500 anos, mudasse. Hoje, quase qualquer pessoa vive melhor que Luiz XIV, o Rei Sol, por exemplo. Isso porque o conhecimento científico modernizou técnicas em praticamente todos os setores da atividade humana, como na medicina, na engenharia, na agricultura, entre outros, que enriqueceram a sociedade, as indústrias e permitiram que a população em geral tivesse acesso a melhores produtos, assistência médica e melhores condições de vida.

No Brasil, praticamente toda produção científica brasileira vem delas. A iniciativa privada não tem participação ativa, o que vem se mostrando como um grande erro histórico. Nos Estados Unidos, por exemplo, uma grande parte da produção científica vem da iniciativa privada. De grandes companhias, como a Bell Laboratories. Andrew Carnegie, um dos americanos mais ricos da virada do século XIX para o século XX foi um dos maiores filantropos, tendo deixado uma fortuna imensa para Fundações e Universidades.

E é por isso que o investimento do Estado em nossos centros de pesquisa e de produção de cultura é fundamental e estratégico para o desenvolvimento nacional. Em nossa história, o governo brasileiro teve um papel de altos e baixos no apoio à ciência e à universidade. Entre as vitórias importantes, há meio século nasceram o CNPq e a Fapesp, que foram generosos e vitais ao desenvolvimento científico. A FAPESP constitui hoje o maior monumento nacional à ciência paulista, e, direta e indiretamente, à ciência nacional.

No Brasil, os investimentos ao longo da história levaram ao desenvolvimento da medicina, com vários centros importantes, técnicas de agricultura a partir de órgãos como a Embrapa, por exemplo, que permitiram que o país tenha se tornado o grande produtor mundial de alimentos. Além da enorme quantidade de engenheiros do país – apesar de ainda haver uma falta destes. Em física e astronomia a universidade também tem dado contribuições enormes, com participação em grandes projetos internacionais.

A Universidade de São Paulo e a Unicamp têm formado um baluarte insubstituível. Mas gostaríamos de ver em toda parte no Brasil esse tipo de empenho. Alguns locais têm lutado bravamente para que isto se faça, com cientistas importantes tentando desbravar regiões brasileiras, e por vezes conseguindo. No entanto, um maior orçamento e uma continuidade temporal são vitais neste sentido: as universidades devem mesmo ser o grande motor da pesquisa, auxiliadas pela iniciativa privada e por órgãos governamentais.

Porém, em diversos momentos, vivemos hiatos no tempo em que a ciência acaba por ser esquecida, o que leva a verdadeiros desastres a médio e longo prazo. O menor investimento nessas instituições tem grandes riscos. A perda de cérebros pode ser fatal. O cientista Michio Kaku, há algum tempo falou da mais absoluta e mais consequente medida americana para o desenvolvimento: o visto americano permitindo a entrada de cientistas de altíssimo nível. Claro que estes cientistas vieram de países como o nosso.

Outra consequência do sucateamento das universidades será a impossibilidade de se produzir ciência e tecnologia, de se produzirem medicamentos de alto custo a preços populares e a perda de técnicas de tratamento médico. A falta de uma elite intelectual modificará o futuro do Brasil. E pensar o futuro é a mais importante via de se ter um desenvolvimento sustentado e sustentável, assim como a melhoria do nível de vida de toda a população.

Independência científica é fundamental em tempos como o atual

O desenvolvimento de tecnologias nos dá independência econômica e independência estratégica. Em tempos difíceis como o que vivemos agora, por exemplo, ninguém vai nos dar tecnologia gratuitamente: veja-se com o problema das vacinas contra a Covid-19. Apenas para citar uma questão atualmente importante, a produção nacional de imunizantes não só garante a proteção da população, mas também gera lucros astronômicos, muito maiores que o aumento da produção agrícola.

Note-se todavia que a produção agrícola também cresce, apenas e tão somente, com técnicas novas e avançadas de produção. Não se deve iludir-se de que apenas medidas administrativas ou políticas possam aumentar ou sustentar a produção de alimentos ou de energia. É necessário haver técnica.

Como consequência dos investimentos menores em Pesquisa e Inovação no país, que vem decaindo há pelo menos uma década, temos observado o aumento de teorias conspiratórias, a propagação de inverdades, a produção de afirmações inverídicas e falsas, que têm sido nocivas à sociedade, levando à perda de vigor de cérebros de altíssimo valor e à perda da crítica social e do pensamento abstrato, levando a sociedade a um fenecimento rápido e por vezes de difícil reversão.

Sociedades científicas produzem mais, sabem mais, desenvolvem-se melhor, pensam melhor, planejam melhor. A sociedade científica é a sociedade que se faz moderna. Países que não desenvolvem ciência têm lideranças que acham que podem impor suas teorias “no grito”, “no berro”.

De modo geral, olhando à nossa volta, vamos perceber que a imensa maioria dos itens foram desenvolvidos pela ciência, desde plásticos até computadores e celulares. Vale a mesma história que já contei várias vezes, mas da qual não me canso: o ser humano pouco se desenvolveu antes da ciência moderna, e sua expectativa de vida era muito baixa. Reis tinham duas dezenas de filhos para poder, um deles, virar herdeiro, já que a grande maioria dos filhos morria ainda criança. A partir da vacina e outros elementos da ciência moderna passamos a ser mais ricos e mais poderosos, mais sábios e mais tecnológicos.

A Revolução Industrial também trouxe consigo novas perspectivas através do que na física chamamos de termodinâmica. A partir da Universidade moderna, da Universidade de Pesquisa, tivemos uma arrancada em direção à modernidade. A química moderna também veio daí.

Na década de 1940, Henry Luce escreveu, na Revista Life o artigo “O século Americano”, em que ele preconizava o uso extenso da ciência. De fato, os Estados Unidos, através da Ciência, foram para a Lua, chegaram em Marte, produzem vacinas em menos de um ano e são a nação mais poderosa da Terra. Isso não é apenas uma coincidência.

Se quisermos um Brasil pujante, maiúsculo, rico, poderoso, magnânimo para sua população, especialmente a mais pobre, façamos Ciência! Com letra maiúscula!

Elcio Abdalla é físico teórico brasileiro com reconhecimento internacional e importante liderança na pesquisa de física teórica no Brasil. Com doutorado e pós-doutorado pela Universidade de São Paulo, é atualmente professor titular do Instituto de Física dessa universidade, além de coordenador do Projeto Bingo, radiotelescópio brasileiro que está sendo construído no interior da Paraíba que fará o mapeamento da parte escura do universo.

Felicidade no trabalho: por quê a experiência é tão importante?

Por Maíra Gracini, diretora sênior de Marketing da Zendesk na América Latina

Você já parou para pensar se, mundialmente, as pessoas são felizes no trabalho? Uma pesquisa realizada no final do ano passado pela ADP Research Institute em 25 países mostrou que o engajamento dos funcionários com o trabalho é de apenas 14%. No Brasil, esse percentual é um pouco melhor, de 18%, e cresceu quatro pontos percentuais desde a última medição realizada, em 2018. O motivo para esse crescimento? A pandemia. 

As situações inéditas que estamos vivenciando no trabalho despertou atitudes positivas por parte das empresas, como a prática da empatia e a maior preocupação com a saúde mental dos seus colaboradores. Esses cuidados se reverteram em um maior comprometimento dos funcionários com a companhia. E isso pode ser o começo de uma transformação maior na cultura das organizações brasileiras, que é a de levar em consideração as percepções e os sentimentos de seus profissionais, o que chamamos de Employee Experience (EX).

O conceito de EX tem uma mentalidade organizacional focada no desenvolvimento e aprendizado constantes, impulsionada de cima para baixo. Um estudo da Deloitte com líderes de 99 países sobre capital humano mostrou que as disrupções no ambiente corporativo que acontecem com propósito, potencial e perspectiva (os três P’s) estão praticamente lado a lado da tecnologia em termos de prioridades para a digitalização do negócio. Enquanto que 35% dos participantes consideram a implementação de novas tecnologias a ação mais importante para transformar o trabalho, 40% fazem a mesma avaliação para uma cultura baseada na adaptação, resiliência e desenvolvimento de novos comportamentos.

Essa virada de chave no pensamento e atitudes das organizações levou 98% das grandes e 67% das pequenas e médias empresas a investirem em novas ferramentas e processos internos desde o início da pandemia, segundo o estudo CX Trends 2021. Essa é uma oportunidade para refletir também sobre o upskilling, reskilling e mobilidade, três capacidades comportamentais que estão no futuro do trabalho e que, quando combinadas com plataformas de experiência do colaborador e do cliente (CX), ajudam empresas a aplicarem a disrupção de forma dinâmica e recorrente.

Upskilling, um aprimoramento constante


É a arte de se desenvolver em uma área que já tem um certo domínio. De aperfeiçoar competências e conhecimentos em uma função que exerce com o objetivo de agregar valor para si mesmo, equipe e empresa.

No atual contexto de trabalho, em que muitas equipes estão dispersas, quanto mais informações sobre um determinado tema estiverem ao alcance do colaborador, mais chances ele terá de desempenhar melhor o seu papel. Contar com uma visão unificada sobre clientes, colaboradores ou equipes como um todo permite compreender o perfil e as necessidades de cada caso, incluindo uma visão holística de toda a jornada da pessoa no contato com a empresa, como canais mais utilizados e histórico de interação. É a chave para um modelo de trabalho avançado, mais humano e satisfatório para cada um.

Reskilling, um ajuste de rota


Significa aprender novas habilidades para se tornar apto a realizar um trabalho diferente. De acordo com uma pesquisa da McKinsey & Company, cerca de 90% dos gerentes sofrem com a escassez de habilidades específicas em algumas funções, ao passo que 87% das empresas avaliam que não possuem hoje os talentos que serão necessários para um futuro cada vez mais próximo. É em busca de preencher esse gap que organizações de todos os portes investem em ferramentas de EX e CX que promovem eficiência e colaboração entre diversas equipes e departamentos.

Expandir essas soluções dentro da empresa garante aos colaboradores acesso aos dados necessários para trocar conhecimentos e experiências, de olho em novos aprendizados e na entrega de melhores resultados. Em 2020, o número de equipes de CX que utilizaram recursos de colaboração cresceu 22% em relação ao ano anterior.

Mobilidade, a presença além dos olhos


O home office é uma mudança cultural que está afetando o mundo corporativo, a gestão das empresas e até mesmo o fluxo de talentos. Parece mesmo uma tendência irreversível, já que 78% dos brasileiros se sentem mais produtivos trabalhando remotamente, segundo uma pesquisa da Pulses, uma startup de clima organizacional.

O desafio de garantir um bom EX neste novo modelo de trabalho parece grande, mas o dinamismo da tecnologia e da conectividade provaram o contrário: com as ferramentas certas, é possível tornar essa experiência fluida e positiva. Na realidade, é possível mudar completamente o patamar de atendimento ao cliente ou colaborador, já que soluções de CX baseadas na nuvem e que rodam em dispositivos móveis permitem aos agentes de suporte fazer ‘mais com menos’, ou seja, atender com a mesma (ou ainda melhor) qualidade um volume maior de pessoas.

Assim, o ambiente de trabalho vai se moldando à era da digitalização. E os profissionais que fazem parte dele vão ganhando um protagonismo cada vez maior. O tema “felicidade no trabalho” é tão relevante para as empresas que, algumas delas, inclusive, já têm cargos como Chief Happiness Officer (CHO). Mas o fato é que mudanças profundas na forma de pensar a jornada do colaborador estão acontecendo e, junto delas, novas tecnologias estão surgindo para viabilizar tudo isso. O resultado deverá ser de um ambiente mais flexível e, quem sabe, feliz!

Como serão as telcos na era do 5G e Hybrid Cloud

Por Marisol Penante, Líder de consultoria e serviços para as indústrias de Mídia e Telecomunicações na IBM América Latina

Um dos impactos que estamos experimentando em decorrência da pandemia é a relevância da conectividade e dos serviços oferecidos pelas plataformas em nuvem, que possibilitaram às empresas seguirem operando e, com isso, mudaram definitivamente a forma como trabalhamos, vivemos e nos relacionamos. Enquanto o mundo se dá conta da relevância da cobertura e da qualidade da conectividade, as telcos ainda enfrentam desafios de negócio importantes, e competem para avançar em direção ao 5G e ao Edge. Uma questão crítica agora é: será que elas podem evitar o mesmo destino que recentemente se abateu sobre as empresas de mídia quando os hyperscalers de nuvem e as empresas de streaming (OTTs) ao consumidor capturaram a maior parte de seus lucros?

Em um novo estudo global do IBM Institute for Business Value lançado hoje, “O fim dos provedores de serviços de comunicação como conhecemos“, 500 executivos globais de empresas de telecomunicações de 21 países, incluindo o Brasil e outros países da América Latina, foram entrevistados para apresentar sua visão sobre os maiores desafios e oportunidades à medida que transformam seus negócios para capturar o novo potencial desta onda trazida pela implantação do ecossistema de 5G e Edge Computing.

Uma das principais conclusões obtidas a partir das visões dos executivos destas empresas é que para terem o controle do seu próprio destino, as operadoras precisam mudar seu posicionamento. Devem adaptar seu modelo de negócio de provedoras de conectividade e infraestrutura para um Modelo de Plataforma Serviços, que leve em conta o fato de que a própria infraestrutura de suas redes está se tornando uma plataforma em nuvem híbrida e os serviços de dados, voz e multimídia estão gradativamente sendo migrados para componentes abertos.

Para impulsionar essa transformação, algumas empresas de telecomunicações estão adotando plataformas de nuvem híbrida aberta que permitem escala, porém se mantendo no controle da jornada de transformação do negócio e dos seus dados. Muitas estão procurando aproveitar sua posição dominante em conectividade para fornecer uma plataforma de inovação para seus clientes – metade (50%) dos provedores de serviços de comunicação (CSPs) de alto desempenho globais concordam que devem se tornar plataformas de nuvem estratégicas combinando um ecossistema de parceiros diverso, e 45% de todos os entrevistados na América Latina concordam que devem se tornar nuvens seguras com IA e automação.

Mas, à medida que as telcos olham para as lições do passado, o estudo também mostrou uma relutância crescente em confiar nos webscalers tradicionais e nas nuvens de hyperscalers à medida que embarcam nessa jornada. Quase três quartos (74%) dos CSPs de melhor desempenho entendem que a parceria com webscalers, incluindo hyperscalers, para Edge computing e 5G, beneficia principalmente os interesses estratégicos dos webscalers.

A nuvem híbrida mantém as telcos no controle

Ao adotar uma abordagem de nuvem híbrida aberta, as telcos passam a ter o controle de escolha sobre onde instalar partes de sua arquitetura, seja em nuvem pública ou privada, bem como da cadeia de fornecedores parceiros em um ambiente habilitado por uma plataforma aberta que funciona como uma língua franca para os dados. Esta arquitetura, compatível com o padrão da indústria, promove flexibilidade de implantação e colaboração em todo o setor, um elemento necessário para capturar o novo valor da conectividade de última geração. Ela também oferece suporte a mais formas de monetizar as vantagens do 5G – incluindo latência reduzida, largura de banda aprimorada e capacidade de rede dedicada que pode melhorar a qualidade do serviço para os clientes.

A realidade é que o 5G trará custos significativos para as empresas de telecomunicações: licenciamento do espectro, construção de infraestrutura e gerenciamento em tempo real de uma plataforma complexa. No mundo, quase todas as grandes empresas de telecomunicações anunciaram seu compromisso em gastar bilhões de dólares nos próximos anos em infraestrutura para suportar 5G. Por causa disso, há uma urgência financeira cada vez maior para as empresas de telecomunicações transformarem suas arquiteturas de rede em plataformas definidas por software que podem ajudá-las a otimizar os custos a fim de viabilizar o crescimento da rede na escala da demanda de tráfego e de novos casos de uso que o 5G requer. E a promessa que isso representa tem um impacto real no resultado final – 91% dos CSPs de alto desempenho pesquisados ​​esperam superar suas expectativas financeiras atuais em cinco anos com o resultado do uso de Edge Computing e 5G.

Em conversas com clientes em toda a região, tenho notado que um cenário de curto prazo em que as Telcos irão seguir implementando 4G mais rapidamente em suas redes enquanto seguem atualizando suas redes de transmissão para fibra e iniciam a implantação do 5G. Também serão importantes para a região as implementações de acesso fixo sem fio com 5G(FWA) como alternativa de cobertura à banda larga por fibra em regiões específicas.

As empresas de telecomunicações também veem a segurança como um elemento fundamental para sua transformação – 60% dos CEOs de telecomunicações entrevistados acreditam que é importante o fortalecimento da segurança e privacidade dos dados para seus clientes, além de ser uma forma de construir a experiência e a confiança com eles nos próximos 2-3 anos, de acordo com o CEO Study 2021*. Um modelo de nuvem híbrida mantém as empresas de telecomunicações no controle de seus dados, implementando segurança de nível empresarial em todos os aspectos dos fluxos de trabalho que gerenciam, bem como para os de clientes e parceiros. Com uma abordagem de nuvem híbrida aberta, as telcos podem monetizar seus dados com segurança porque continuam no controle sobre as configurações de privacidade, além de integrar segurança e conformidade em toda a amplitude de suas cargas de trabalho de TI.

Fazer uso de maneira inteligente da sinergia entre conectividade e capacidade computacional distribuída será o fator determinante para o sucesso das telcos e de todas as empresas, parceiros e clientes que fazem parte desse ecossistema. Para isso, é importante que elas pensem além da conectividade que provêm hoje, escolham com cuidado e critério seus parceiros de Cloud Hyperscale de forma que possam manter o controle da cadeia de valor da evolução das suas redes, estabeleçam pontos de controle sobre esta nova plataforma, administrando a monetização deste novo ecossistema, e que se preparem para a nova geração de redes e aplicações através das nuvens híbridas.

*CEO Study 2021: https://www.ibm.com/thought-leadership/institute-business-value/c-suite-study/ceo

SuperApps fortalecem o varejo e colocam o data center no coração desse segmento no Brasil

Por Rafael Garrido, Vice-Presidente da Vertiv LATAM

2020 colocou fim à época em que as empresas brasileiras de varejo se organizavam exclusivamente em formatos estanques (loja física, portal de e-Commerce, Apps). Os maiores grupos empresariais do nosso país reinventaram processos para chegar a uma única meta comum: uma SuperApp que suporte toda a jornada do cliente, qualquer que seja o meio escolhido para a realização da transação comercial.

A SuperApp é um ecossistema fechado que reúne diferente Apps usadas juntas, oferecendo a melhor e mais atraente UX (Experiência do Usuário). A estratégia de SuperApp está em constante expansão, por meio de conectores com bancos, empresas de cobrança, empresas de logística e outros Market Places. Embora isso seja mais visível nos smartphones e browsers, a SuperApp é, na verdade, uma imensa e heterogênea aplicação corporativa que apoia os processos da empresa de varejo voltados para o cliente.

Um bom exemplo desse conceito é o que já acontece na China, com a SuperApp Alibaba/Alipay, centro de um ecossistema com milhares de parceiros de negócios que trocam dados 24×7 uns com os outros. Em 2020, 53,3% de todas as transações comerciais e bancárias da China aconteceram por meio da SuperApp Alibaba/Alipay (dado da Investopedia).

Essa revolução está acontecendo no Brasil.

Um dos grupos mais avançados nessa transformação é o Magazine Luiza/SuperApp Magalu. Seu objetivo é usar a digitalização para consolidar-se como uma empresa multicanal (oferecendo a mesma experiência ao cliente qualquer que seja o meio – visita à loja física, e-Commerce etc.) e multissetorial (com um portfólio de ofertas cada vez mais diversificado). Segundo levantamento da consultoria em inteligência artificial AppAnnie , em 2019 a SuperApp Magalu foi a terceira App mais baixada no Brasil, com 14 milhões de usuários ativos.

As SuperApps estão, também, por trás do e-Commerce, um segmento que avançou como nunca em 2020. Pesquisa da Associação Brasileira de Comércio Eletrônico (Abcomm) com seus associados indica que, em 2020, o faturamento do e-Commerce no Brasil cresceu 56,8%, chegando a 41,92 bilhões de reais.

Engana-se quem imagina que o crescimento do e-Commerce significa o fim das lojas físicas.

Ao contrário: até o final desta década, veremos explodir o número de pequenas lojas físicas localizadas a pequena distância do cliente, com uma oferta de produtos reduzida e, acima de tudo, aparelhadas para oferecer uma experiência full digital, mesmo no ambiente físico.

O player de varejo que desejar encantar o cliente criará lojas forradas de dispositivos IoT, de câmeras de calor que medem quanto tempo o cliente passou em frente a uma prateleira a sensores que analisam o trajeto do cliente na loja. A busca incessante pela baixa latência, algo essencial para melhorar a UX do cliente dentro da loja, torna necessário levar o processamento de dados para o mais perto possível da unidade de varejo. Estamos falando de lojas que poderão utilizar soluções semelhantes às implementadas na rede Amazon Go, de self-service totalmente automatizado. Nesse contexto vemos novamente a SuperApp rodando tanto no smartphone do cliente – que vira um sensor – como em computadores espalhados pela loja. Segundo pesquisa da consultoria  Juniper Research , tecnologias de smart checkout representarão um mercado de US$ 387 bilhões até 2025. Em 2020, esse segmento valia US$ 2 bilhões. No Brasil, a chegada do 5G deverá acelerar esse perfil de aplicações de varejo.

Esse novo modelo de lojas físicas levará ao aumento do uso de soluções de infraestrutura crítica na borda da rede (Edge Computing), com data centers modulares que partem de um único Rack já montado e configurado para uma fila ou um corredor de Racks, em configurações sob medida para demandas de diferentes negócios e volumes de dados.

Quer seja um data center hyperscale de Colocation processando simultaneamente milhões de transações por segundo de um grande portal de e-Commerce, quer seja um datacenter modular instalado numa loja no interior de um estado do nosso país, o que se busca é, sempre, garantir a continuidade do processamento da SuperApp, como o coração dos processos de negócios.

O oposto disso é o que aconteceu com a Amazon em agosto de 2013. A SuperApp da empresa sofreu um downtime e teve suas operações saindo completamente do ar. Segundo a Forbes, essa falha durou 40 minutos e, durante esse período, a empresa perdeu 5 milhões de dólares em vendas.

Para evitar quadros como este, é fundamental planejar investimentos em data centers – sejam on-premises ou de Colocation – baseados em valores sólidos.

1. Elasticidade para suportar picos de vendas

No varejo, o engajamento dos clientes está em constante flutuação, especialmente durante promoções. Eventos sazonais como a BlackFriday, as festas de fim de ano e grandes competições esportivas como a Copa do Mundo podem causar picos nas vendas do varejo. Os data centers de Colocation, em especial, podem lidar instantaneamente com as alterações de tráfego da web e o engajamento necessário para suportar os processos de vendas e entregas de mercadorias. Até mesmo data centers on-premises têm, hoje, a opção de, por meio de soluções de nuvem híbrida, expandir com rapidez sua capacidade de processamento.

2. Olhar atento sobre a cultura de serviços do data center

Os data centers oferecem suporte 24×7 aos clientes, incluindo canais de chat, telefone e acesso a plataformas remotas de monitoramento do data center. As soluções de backup de dados também recebem regularmente manutenções e otimizações, assegurando que os dados estejam seguros. Como os portais B2C não fecham nunca, essas vantagens são críticas para o suporte às vendas. Além da excelência da infraestrutura do data center, é importante avaliar, também, a cultura de serviços desse provedor de serviços. O grau de experiência do time de serviços – seja interno ou externo, algo muito comum no caso de suporte a soluções muitos sofisticadas ou inovadoras – deve ser levado em conta na hora de selecionar o fornecedor de data center.

3. Confiabilidade, sustentabilidade e controle de custos

As mais novas infraestruturas de data center não exigem que se sacrifique a confiabilidade para ter sustentabilidade e eficiência. Um dos elementos mais críticos para a redução de custos do data center é a eficácia do uso de energia (PUE – Power Usage Effectiveness). A PUE é a proporção entre a energia total da infraestrutura do data center e a energia consumida pelos equipamentos de TI. Esse padrão é reconhecido como uma das melhores métricas disponíveis para determinar a eficiência energética de um data center. Num momento em que o selo verde de sustentabilidade é um grande diferencial para marcas de produtos e de redes de varejo, vale a pena estudar a contratação de um data center alinhado às melhores práticas de consumo de energia. Vale destacar que a refrigeração do data center tem um grande impacto na PUE.

Por essas razões, a empresa de varejo que estiver fazendo escolhas sobre a expansão do seu data center – seja on-premises, seja na nuvem – precisa analisar com cuidado as soluções de energia e ar-condicionado implementadas neste ambiente.

Em 2021, a acelerada transformação digital do varejo segue acontecendo, demandando um novo olhar sobre a infraestrutura digital. A consolidação das SuperApps desse setor exige a disseminação de conhecimento sobre data centers, de forma a ajudar os gestores a fazerem escolhas que suportarão a prosperidade digital do Brasil.