Sim, sua empresa vai ter de passar pela LGPD, mas não é tão ruim quanto parece

Em 14 de agosto de 2018, o Presidente da República, Michel Temer, sancionou a Lei Geral de Proteção de Dados (LGPD). Lei 13.709:http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm

Em 8 de julho de 2019, o Presidente da República, Jair Messias Bolsonaro, alterou a Lei anterior para dispor sobre a proteção de dados pessoais para criar a Autoridade Nacional de Proteção de Dados; além de dar outras providencias. Lei 13.853:http://www.planalto.gov.br/ccivil_03/_Ato2019-2022/2019/Lei/L13853.htm#art1

Olhando com outros olhos:

Os benefícios da LGPD vão além de simplesmente garantir maior confiabilidade e respeitar a privacidade, ou criar proteção contra vazamentos de dados. Vantagens e benefícios econômicos surgem com a nova Lei, é uma oportunidade de nivelar a competitividade das empresas brasileiras no mercado internacional.

A publicação da lei coloca o Brasil em uma lista de mais de 100 países que atualmente podem ser considerados adequados para proteger a privacidade e o uso de dados. A LGPD no Brasil tem relacionamento com a GDPR (General Data Protection Regulation) na Europa, e esta, por sua vez tem validade para empresas brasileiras quando existir oferta de bens e/ou serviços para indivíduos localizados na União Europeia assim como quando existir monitoramento de comportamento de titulares de dados na União Europeia.

Se a real possibilidade de proibição pela União Europeia de que empresas brasileiras tratem dados europeus não baste, a não adequação à LGPD implica em advertência e multa. Para algumas empresas isso pode ser insignificativo, mas imagine a publicação e repercussão na mídia com uma notícia sobre sua empresa estar infringindo esta Lei. Com certeza haverá prejuízos para sua imagem e marca, e estes podem ser significantes.

Ainda não está satisfeito?

Quer um exemplo prático do que acontecerá no Brasil? Tome como exemplo a notícia publicada em 12/07/2019 na revista Istoé Dinheiro. O Information Commissioner’s Office (ICO), agência que trata da proteção de dados e informações no Reino Unido, aplicou uma multa recorde no país, de 183 milhões de libras (cerca de US$ 230 milhões), contra a British Airways, por violação de dados de 500 mil passageiros, em 2018. Link: https://www.istoedinheiro.com.br/por-violacao-de-dados-british-airways-e-multada-em-us-230-milhoes/

Em ritmo acelerado:

Ou atrasado. É muito provável que os escândalos de vazamento de dados do Facebook, além de outras redes e empresas, tenham levado diversos países a acelerarem leis de proteção de informações pessoais. Depois que a União Europeia publicou seu Regulamento Geral de Proteção de Dados – GDPR – o Senado Federal aqui no Brasil aprovou o Projeto de Lei da Câmera, nº 53, de 2018, consolidando assim como a Lei Geral de proteção de Dados – LGPD. Link: https://www25.senado.leg.br/web/atividade/materias/-/materia/133486

Disposição:

A Lei dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural.

Alguns modelos de negócios devem passar por adaptações, mas não deixarão de existir. Entenda que isso não é responsabilidade da TI, nem do Jurídico, mas sim responsabilidade de todos, inclusive da diretoria e conselho administrativo. A transparência pode se tornar uma vantagem competitiva.

Fundamentos:

Em resumo, a Lei fundamenta-se no respeito à privacidade, a inviolabilidade da intimidade, da honra e da imagem; e a defesa do consumidor. No inciso V do Artigo 2º a Lei inclui o desenvolvimento econômico e tecnológico e a inovação.

O desenvolvimento econômico e tecnológico e a inovação é algo presente em empresas com visão de futuro focada no crescimento. De fato em muitos ambientes a tecnologia é a espinha dorsal para o acesso e interação direta de clientes, fornecedores, parceiros de negócios e colaboradores. Não é possível pensar em proporcionar uma experiência positiva sem pensar no ambiente e sua infraestrutura tecnológica.

Um adendo: o profissional que não pensa fora da caixa está fora do mercado, esta é a realidade. Pensar fora da caixa faz a diferença em um projeto muito bem elaborado e de sucesso e mantém o profissional empregado e competitivo. Isso é indiscutível. Um bom profissional custa caro e para minimizar os impostos pagos, e diminuir o vínculo empregatício, muitas empresas contratam os colaboradores na modalidade de Pessoa Jurídica (PJ). Na área de TI isso é comum. Alguns são contratados em projetos específicos através de uma cooperativa a qual deve se filiar, outros em contratação direta mediante contrato de trabalho que repassa autonomia para o desempenho das funções no cargo que ocupa.

Aqui vai uma dica a estes profissionais: verifique seu contrato de trabalho pois você como um colaborador na modalidade PJ tem responsabilidades e poderá ser elegível em algum aspecto da Lei.

Aplicabilidade:

Aplica-se a qualquer operação de tratamento realizada por pessoa natural ou por pessoa jurídica de direito público ou privado, independentemente do meio, do país de sua sede ou do país onde estejam localizados os dados, desde que os tratamentos dos dados sejam realizados no Brasil, a atividade de tratamento tenha por objetivo a oferta ou o fornecimento de bens ou serviços, assim como quando os dados tenham sido coletados no Brasil, a pessoa ou empresa esteja prestando serviço no Brasil e os dados tenham sido processados no Brasil.

Alguma empresa foge disso? Dificilmente!

Quando não se aplica:

Em resumo, para fins exclusivamente particulares e não econômicos, para fins exclusivamente jornalístico, artísticos e acadêmicos; ou ainda para fins exclusivos de segurança pública, defesa nacional, segurança do Estado, ou atividades de investigação e repressão de infrações penais.

Considerações:

Dados pessoais: informação relacionada a pessoa natural identificada ou identificável.

Dados pessoais sensíveis: são dados relacionados à personalidade e escolhas pessoais, como religião, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural.

Dados anonimizados: são relativos a um titular que não possa ser identificado, considerando a utilização de meios técnicos razoáveis no momento do tratamento.

Banco de dados: conjunto estruturado de dados pessoais, estabelecido em um ou em vários locais, em suporte eletrônico ou físico.

Titular: pessoa natural a quem se referem os dados pessoais que são objeto de tratamento.

Controlador: pessoa natural ou jurídica, de direito público ou privado, a quem competem as decisões referentes ao tratamento de dados pessoais.

Operador: pessoa natural ou jurídica, de direito público ou privado, que realiza o tratamento de dados pessoais em nome do controlador.

Encarregado: pessoa indicada pelo controlador e operador para atuar como canal de comunicação entre o controlador, os titulares dos dados e a Autoridade Nacional de Proteção de Dados (ANPD).

E o que é tratamento de dados pessoais?

A lista é extensa. Considera-se toda operação realizada com dados pessoais, como as que se referem a coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação ou controle da informação, modificação, comunicação, transferência, difusão ou extração.

Leia novamente a lista acima. Tem algum item que sua empresa não se enquadre? É provável que não.

Por que é tão difícil e complexo?

A segurança da informação é um quesito que tem grande peso e correlação com a nova Lei. Um termo conhecido aos profissionais de TI é “defesa em profundidade”, que na realidade é um termo emprestado dos militares, que se refere a táticas empregadas para criar camadas de defesas para impedir o progresso de um atacante, forçando-o a esgotar seus recursos disponíveis, em outras palavras, é destinado a identificar, mitigar e erradicar ataques.

Não basta mais estar seguro, sua empresa precisa mostrar que está segura. Por mais forte que um mecanismo de segurança possa parecer, não se deve depender apenas dele, do contrário, um único mecanismo de segurança com problemas pode comprometer a segurança como um todo.

Além disso, nas organizações é comum ter dados estruturados e não estruturados, com perfis ou hierarquias distintas de acesso aos dados, e registros contínuos de eventos para fins de auditoria. O backup e o armazenamento são tão comuns que as vezes nem se pensa em criptografa-lo. Lembre-se de que quando solicitada a remoção dos dados, ela deve ser permanente, inclusive dos backups.

É demorada e morosa a análise de todas as atividades de tratamento de dados. Identificar os tipos de coleta ou a forma de obtenção de consentimento envolverá várias pessoas e setores. Várias medidas de segurança poderão ser envolvidas a fim de se ter um diagnóstico de governança e segurança de dados. É enorme o trabalho de adequar os procedimentos internos e criar um compliance para assegurar a obtenção e conformidade das autorizações necessárias ao tratamento dos dados observando todas as obrigações legais.

E por fim, os parceiros de negócios são envolvidos no cumprimento dos procedimentos que asseguram a ampla informação dos titulares e aí poderá entrar a revisão e criação de documentos, políticas e processos. Isso demora.

O tratamento dos dados deve observar:

Finalidade: realização do tratamento para propósitos legítimos, específicos, explícitos e informados ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades; ou seja, os mesmos que foram informados ao titular no momento da obtenção do consentimento.

Adequação: compatibilidade do tratamento com as finalidades informadas ao titular, de acordo com o contexto do tratamento.

Necessidade: limitação do tratamento ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às finalidades do tratamento de dados; ou seja, deve-se processar somete os dados que são necessários para atender a finalidade.

Livre acesso: garantia, aos titulares, de consulta facilitada e gratuita sobre a forma e a duração do tratamento, bem como sobre a integralidade de seus dados pessoais.

Qualidade dos dados: garantia, aos titulares, de exatidão, clareza, relevância e atualização dos dados, de acordo com a necessidade e para o cumprimento da finalidade de seu tratamento.

Segurança: utilização de medidas técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou difusão.

Prevenção: adoção de medidas para prevenir a ocorrência de danos em virtude do tratamento de dados pessoais.

Não discriminação: impossibilidade de realização do tratamento para fins discriminatórios, ilícitos e abusivos.

Observe no artigo 7º da Lei, que o direito dos titulares é algo excelente para quem é titular, e algo complexo para quem detém e trata os dados. O consentimento do titular é pré-requisito em muitas ocasiões, além de que que, no Artigo 8º está explícito que deverá ser fornecido por escrito ou por outro meio que demonstre a manifestação de vontade do titular.

Dentre outros direitos dos titulares, temos o direito de obter do controlador a confirmação da existência de tratamento; o acesso aos dados; a correção de dados incompletos, inexatos ou desatualizados; a anonimização, bloqueio ou eliminação de dados desnecessários; a portabilidade dos dados a outro fornecedor de serviço ou produto; a eliminação dos dados; e a revogação do consentimento.

Dicas valiosas:

É notado que muitas empresas já começaram a adequação, estão antecipando a dor de cabeça. Não sou especialista no assunto, entretanto, após participação em alguns eventos sobre a Lei Geral de Proteção de Dados, pude constatar alguns pontos valiosos que agregam valor diante da complexidade do assunto.

Primeiro, lembre-se como sua empresa lida com dados pessoais. Coleta ou trata dados pessoais no exercício de suas atividades? Coleta ou trata dados de seus empregados ou colaboradores? Recebe, produz, classifica, armazena, acessa, transmite, processa, armazena ou modifica dados pessoais? Possui meios ou medidas para proteger os dados?

Comece logo.

Crie um comitê ou grupo de trabalho para conduzir o tema. É fundamental o apoio do Jurídico, diretoria e TI, e se houver necessidade, uma assessoria externa. Mantenha os envolvidos regularmente informados sobre as atividades e evoluções dos processos. A adequação da lei necessita o engajamento multidisciplinar. Entenda que é pouco provável dar estes passos sozinhos com recursos internos.

Crie um mapa de dados e tenha o controle do inventário de ativos como softwares e aplicativos. Faça entregas pequenas e frequentes, assim perceberá a evolução do assunto e envolvimento das pessoas. Não esqueça do mundo off-line pois informações armazenadas ou tratadas de forma off-line também são regidas por Lei.

Segmentar o passado, o legado, do presente e futuro pode facilitar. Revise contratos com fornecedores, parceiros e outras partes.

O perímetro de segurança não está na empresa, mas sim nas pessoas. É necessário conscientização e treinamento. Segmentar redes, ter recursos de autenticação, política de compliance e um gerenciamento de segurança é fundamental.

É provável que tenha investimentos financeiros. A ampla ocorrência de vazamento de dados resultou na valorização de empresas que lidam adequadamente com dados. A segurança não pode ser vista apenas como despesas, mas como o meio de propulsão para alavancar negócios e fidelizar de clientes, além de evitar danos à imagem da marca.

Valor X Complexidade:

Podemos aproveitar a nova Lei para colocar a casa em ordem e tirar proveito das políticas, normas, processos e compliance para não ficar apenas na análise descritiva. Então quando ocorrer um fato, a pergunta “o que aconteceu?” não será mais necessária. Estejamos preparados para responder a pergunta “o que vai acontecer?” e não simplesmente “o que aconteceu?”. E vamos mais além, no prescritivo, então estejamos preparados para responder “o que fazer quando acontecer?”.

Outros benefícios:

Outro lado positivo é que podemos ter uma análise de dados combinada aos negócios, onde Big Data, Analytics e Machine Learning contribuem para a antecipação de tendências e análises comportamentais com maior precisão.

O desenvolvimento de novos negócios e produtos é na prática a inovação, e traz consigo maior assertividade e personalização na oferta de novos produtos e serviços ao público. Com isso há uma ampliação dos consumidores alvos. Pense no marketing direcionado para cada grupo de consumidor em potencial.

A proteção de dados tem sua importância atrelada diretamente aos negócios, pode favorecer a inovação, fomentar novas práticas e tecnologias em diversos setores.

É uma boa oportunidade de nos adequarmos.

Fonte: It Fórum 365

Extensões do Chrome e Firefox vazaram sites visitados por milhões de internautas

O especialista em segurança Sam Jadali veio a público com uma pesquisa demonstrando como uma série de práticas em sistemas corporativos, serviços on-line, extensões de navegadores e compartilhamento de dados que resultaram no vazamento de informações privadas, incluindo fotos, reuniões e documentos financeiros armazenados em endereços web particulares.

Esses endereços foram coletados por extensões disponíveis para os navegadores Google e Firefox e instaladas por mais de quatro milhões de internautas.

Jadali deu ao caso o nome de “DataSpii”, misturando as palavras “data” (dados), spy (espião) e PII, sigla em inglês para “informação pessoalmente identificável”.

O especialista identificou extensões disponibilizadas para os navegadores Chrome e Firefox que coletam todos os endereços web acessados pelo usuário e descobriu que dados eram enviados a um servidor de controle para serem repassados à Nacho Analytics, um serviço de marketing. Essa empresa permitia que qualquer pessoa assinasse um serviço de “monitoramento de domínio” para ver, praticamente em tempo real, o que as pessoas estavam acessando no site monitorado.

Por exemplo, é possível assinar o serviço para monitorar o endereço “1drv.ms” e visualizar todos os links compartilhados do OneDrive da Microsoft que foram acessados pelos usuários que instalaram essas extensões. O link em si dá acesso ao documento compartilhado.

Redes sociais, como o Facebook, também permitem que fotos sejam acessadas sem a realização do login caso alguém tenha o link direto para o arquivo da imagem, abrindo outra brecha para expor informações a partir dos links vazados.

Mas não são apenas documentos e arquivos em serviços de armazenamento em nuvem que podem ficar expostos. Sistemas internos de empresas, mesmo que não sejam acessíveis pela internet, também podem expor informações. Se um funcionário realiza uma pesquisa em um sistema interno, essas informações podem ser registradas pela extensão. As informações podem fazer referência a projetos comerciais, nomes de clientes ou outras questões sigilosas da empresa, mesmo que o conteúdo em si não seja acessível pela internet.

Jadali descobriu que funcionários de empresas de segurança e montadoras de veículos tinham instalado alguma das extensões e por isso estavam vazando dados internos. Ele também identificou reuniões cadastradas no serviço de conferências on-line Zoom solicitando o monitoramento do endereço “zoom.us” e balanços financeiros por meio do monitoramento da Intuit, criadora de um software de contabilidade.

Dados de passageiros ou de viagens também estavam presentes em endereços de sites de companhias aéreas e de transporte, enquanto dados médicos ficavam em endereços de serviços de saúde.

Jadali teve que assinar o serviço para cada endereço junto à Nacho Analytics, então não é possível saber o nome de todas as companhias e empresas que tiveram informações vazadas. O especialista alerta que a companhia oferecia um serviço grátis para fins de “teste”, o que também pode ser aproveitado por criminosos.

A Nacho Analytics alegou que seu serviço é totalmente lícito e que todos os dados pertencem a usuários que autorizaram a coleta. De fato, as políticas das extensões autorizavam a coleta dos endereços visitados na web.

A Nacho Analytics também informou que removia informações sensíveis antes de disponibilizar os links para consulta no serviço e que os links eram disponibilizados de forma anônima, ou seja, sem ligação específica com o usuário. Isso significa que não havia meio de ver todos os sites acessados por uma só pessoa, por exemplo, ainda que todos os links acessados por essa pessoa estivessem abertos na ferramenta.

Após a denúncia de Jadali, as extensões foram todas removidas da Chrome Web Store e do repositório oficial de extensões do Firefox. No Twitter, a Nacho Analytics informou que não está comercializando novas assinaturas do serviço porque seu parceiro de dados interrompeu suas operações.

Dados em links

Não é recomendado que dados sigilosos sejam incluídos no endereço de páginas web. A prática mais segura é exigir uma senha ou código durante o acesso. Isso impediria o vazamento de dados sensíveis pelo endereço das páginas.

Em muitos casos, no entanto, não é conveniente exigir senhas ou autenticação. Por isso, esses endereços devem ser usados apenas de modo particular. Quando o endereço é vazado por uma extensão ou outro componente, a única medida de segurança – o sigilo do endereço – é violada e os dados ficam expostos.

Extensões que vazaram sites visitados

  • Hover Zoom (Chrome): 800 mil usuários
  • SpeakIt (Chrome): 1,4 milhão de usuários
  • SuperZoom (Chrome/Firefox): 329 mil usuários
  • SaveFrom.net Helper (Firefox): 140 mil usuários
  • FairShare Unlock (Chrome/Firefox): 1 milhão de usuários
  • PanelMeasurement (Chrome): 500 mil usuários
  • Branded Surveys (Chrome): 8 usuários
  • Panel Community Surveys (Chrome): 1 usuário

Como as extensões foram banidas dos repositórios oficiais, o navegador já deve informar que o funcionamento da extensão foi suspenso. Elas não devem ser reativadas e recomenda-se que sejam desinstaladas definitivamente.

A lista de extensões pode ser acessada pelos endereços chrome://extensions (Chrome) ou about:addons (Firefox).

Quem tinha alguma das extensões instaladas também deve modificar endereços de links compartilhados e trocar as senhas também pode ajudar. Programadores devem cadastrar novas chaves de “API”, pois elas podem ter sido vazadas.

Fonte: G1

O que são métricas de um site

Os mecanismos de busca seguem um padrão para definir quem vai ser melhor posicionado, estes padrões podem ser chamados de métricas.

Existem várias métricas que definem seu projeto, nesse post, iremos tratar de apenas 5, são elas:

CF – Citation Flow;

TF – Trust Flow;

TR – Trust Ratio;

DA – Domain Authority;

PA – Page Authority.

Usaremos 2 ferramentas para analisar as métricas:

Majestic – Para verificar TF e CF;

MOZ Bar – Para analisar DA e PA.

As importantes métricas Citation Flow e Trust Flow foram lançadas pela majestic em 2012.

Agora vamos conhecer cada uma das métricas já apresentadas:

CITATION FLOW

O Citation Flow é o numero que indica as referências apontadas para seu site ou para a URL analisada. Ou seja, é a nota que o Majestic te dá em relação aos links que apontam para você

Por exemplo: No seu projeto, tem cerca de 100 sites apontando para ele, então com base nesses apontamentos, o majestic te dá uma nota, essa nota se chama: Citation Flow (CF).

TRUST FLOW

O Trust Flow mede a QUALIDADE dos backlinks que seu site recebe, ou seja, quanto mais backlinks você receber de um site com boa autoridade (DA), melhor sera sua métrica de Trust Flow.

Por exemplo: Você está recebendo 100 backlinks de 100 sites diferentes, isto é, 1 backlink por site, e estes 100 sites tem uma boa autoridade na internet, boas métricas, etc, então seu Trust Flow aumentará. Resumindo, seu site será confiante para poder passar trust flow para outros sites, interessante né? ;D

Ah – um pequeno detalhe – também é possível que um Trust Flow seja maior que um Citation Flow, isso quer dizer que os links que apontam para o site analisado vem de poucos sites de muita autoridade.

TRUST RATIO

Trust flow/Citation Flow = Trust Ratio

Essa matemática funciona muito bem, devido a certos parâmetros, Exemplo:

Imagine que o CF seja muito alto (100) e o TF super baixo (5), isso quer dizer que o projeto esta recebendo muitos backlinks ou links juice de um projeto que não tem tanta qualidade, ou quase nada de qualidade. Não adianta você ter vários sites apontando para seu projeto, sendo que eles não tem autoridade e qualidade nenhuma.

Em geral, quando isso acontece e porque possivelmente é um site de ‘spam’ apontando para o seu ou um site sem autoridade e de pouquíssima confiança para os buscadores.

O valor de um bom Trust Ratio é aproximado de 1. Claro, 2 seria melhor ainda…

Por exemplo: Se você tiver um projeto que o CF seja 11 e o TF de 15, aplicando a formula o resultado seria = 15/11=1,36, que é um excelente resultado… ;D

DA – DOMAIN AUTHORITY

O que é domain authority – “Domínio de Autoridade” é uma métrica criada pela empresa MOZ, serve para analisar a autoridade que tal domínio exerce na internet, vários fatores influenciam nessas métricas

PA – PAGE AUTHORITY

O que é page authority – “Pagina de Autoridade” também é uma métrica criada pela empresa MOZ, serve para analisar a autoridade de uma pagina.Você pode ter varias paginas no seu site, porem, nem todas tem a mesma autoridade, tanto é que algumas os motores de buscam indexam mais rápido e posicionam melhor, enquanto outras demoram muito e o posicionamento não e tão bom.

Fonte: Administradores

 

5 etapas para o sucesso de uma estratégia de Data & Analytic

O Gartner avalia que, com o avanço das demandas por Data & Analytics dentro das empresas, os chamados Chief Data Officers (CDOs) estão sendo cada vez mais responsáveis por uma ampla agenda que abrange as iniciativas de gerenciamento, análise e ciência de dados, além de ética e transformação digital.

Conforme a consultoria, esses especialistas precisam estar preparados para liderarem a transformação baseada em dados de suas organizações. Mas como os novos CDOs que estão assumindo essa posição desafiadora podem ter sucesso em suas jornadas?

Os primeiros 100 dias constituem um período de “lua de mel”, aponta o Gartner, perído em que os CDOs devem se estabelecer e criar percepções que os outros irão associar às suas ações subsequentes. Segundo a consultoria, cada fase inclui resultados-alvo, ações e recursos críticos, bem como algumas ideias opcionais a serem consideradas, conforme o tempo e os recursos permitirem.

De acordo com a Analista e Vice-Presidente da Consultoria, Debra Logan, preparar e comunicar um plano claramente dividido é fundamental neste processo. “Os profissionais precisarão criar planos detalhados e de alto nível para atividades-chave, com análises que incluam benchmarks e medições para mostrar o progresso e as realizações de suas iniciativas”, diz.

Confira abaixo uma lista com cinco etapas para o sucesso de uma estratégia de Data & Analytics, segundo a Gartner.

Preparar – Marque reuniões com sua equipe e com os principais líderes de negócios e de TI antes de participar e prepare um conjunto de materiais introdutórios sobre sua experiência. Se você é um veterano na empresa e passou para a função de CDO, revise sua experiência rapidamente. Demonstrar que você entende “como as coisas funcionam por aqui” é crucial.

Avaliar – Use reuniões face a face para construir uma forte compreensão do negócio e relacionamento com os principais interessados. Dedique pelo menos 50% do seu tempo a atender essas partes interessadas para explicar o papel do CDO e como você as ajudará a atingir seus objetivos críticos de negócios. Uma lista de não mais do que cinco perguntas ponderadas será mais valiosa do que tentar cobrir tudo. Preste muita atenção a pontos crônicos de dor e falhas anteriores e solicite ativamente o feedback sobre as percepções sobre as demandas direcionadas ao cargo de CDO e outras funções baseadas em dados. Também tente ter uma noção de como o CIO e a organização de TI são considerados no negócio.

Planejar – A fase de planejamento transforma as lições aprendidas das fases “preparar” e “avaliar” em um plano de ação. Compartilhe uma visão com sua equipe, gerentes de linha e as partes interessadas da empresa que você entrevistou. Apoie isso com uma avaliação de como a organização se compara à sua visão e descreva como você poderá desenvolver as operações e estruturas. Lembre-se de expressar esses objetivos em termos dos principais indicadores de desempenho de negócios (KPIs) que são importantes para as metas definidas por executivos e gerentes.

Agir – Reúna-se com suas equipes operacionais para definir seu escopo de operação e considere as métricas de desempenho. Pergunte o que você pode fazer para ajudá-los a ter sucesso. Realize uma reunião de status de gerenciamento sênior e desenvolva um cronograma trimestral. Estas serão algumas das reuniões mais valiosas que você tem. A equipe executiva determinará como integrar suas necessidades em sua estratégia e deverá deixar clara sua visão sobre o que constitui o sucesso. Isso lhe dará objetivos e estrutura claros para futuras reuniões. Mantenha a agenda simples: -O que você vai fazer durante este período? -Qual é o valor comercial das ações que você está planejando abordar? -Que valor comercial a equipe executiva gostaria que você entregasse durante o próximo período?

Mensurar – Você deve articular o valor comercial dos esforços de suas equipes de projeto, para que as reuniões regulares do relatório de progresso se concentrem nas informações mais relevantes para os líderes empresariais e financeiros.

10 principais certificações para se tornar um expert em ciência de dados

Uma pesquisa da Gallup para o Fórum de Negócios de Educação Superior mostra que, em 2021, 69% dos empregadores esperam dar preferência a candidatos com habilidades de análise e ciência de dados. No entanto, o mesmo relatório também revelou que apenas 23% das faculdades e universidades esperam formar alunos com essas habilidades nos próximos anos. Essa lacuna pode, eventualmente, fechar, mas levará tempo que as empresas não têm. Eles estão ansiosos para contratar agora para que possam capitalizar dados, com postagens para posições de ciência de dados, que devem chegar a 2,72 milhões em 2020.

Você não precisa se matricular em uma faculdade de quatro anos para aproveitar o mercado de habilidades em ciência de dados. Os programas de certificação podem ajudá-lo a conhecer os mais recentes conceitos, técnicas e ferramentas da ciência de dados. Outros programas são projetados para profissionais experientes que já têm conhecimento ou graduação, mas que querem ficar por dentro das tendências do setor.

Aqui estão dez programas de certificação de desenvolvimento profissional que podem ajudar a lançar ou impulsionar sua carreira em ciência de dados.

10 principais programas de certificação de ciência de dados

• Programa Avançado de Certificação em Ciências de Dados, Northwestern Professional Studies • Certificação de Big Data, UC San Diego Extension School • Certificação em Ciência de Dados, Georgetown University School of Continuing Studies • Certificação de Desempenho Profissional em Ciências de Dados, Columbia University • Programa de Certificação em Ciência de Dados, UC Berkeley Extension • Certificação de pós-graduação de Mineração de Dados e Aplicativos, Stanford Center for Professional Development • Ciência de Dados A-Z: Exercícios de Ciência de Dados da Vida Real, Udemy • Certificação de Ciência de Dados, Harvard Extension School • Programa de Certificação de Ciência de Dados, eCornell • Ciência de Dados para Executivos, Columbia University

Programa Avançado de Certificação em Ciências de Dados, Northwestern Professional Studies

O programa de certificação Advanced Data Science da escola Northwestern Professional Studies oferece cursos que vêm diretamente do mestre da ciência da escola no programa de Ciência de Dados. Estes incluem o gerenciamento analítico, análise e modelagem, engenharia de dados e inteligência artificial. Este é um curso projetado para aqueles que já têm um diploma de pós-graduação em ciência de dados ou um campo semelhante, e que querem se atualizar sobre novas tecnologias ou tendências do setor.

Pré-requisitos: um diploma de pós-graduação em ciência de dados, análise preditiva ou um campo similar. Complete dois cursos fundamentais através da Northwestern ou tenha conhecimento e habilidades equivalentes Taxa de matrícula: US$ 3.015 por curso Localização: on-line Duração: dois a quatro meses em média

Certificação de Big Data, UC San Diego Extension School

A Certificação de Big Data, oferecida pela UC San Diego’s Extension School, oferece cursos, workshops e campo de treino on-line e presencial. Os cursos enfocam a mineração de dados, analisando dados especiais com o GIS, criando modelos preditivos e usando algoritmos de aprendizado de máquina. Você pode optar por uma certificação de dados mais especializada com os certificados Mineração de Dados para Análise Avançada ou Métodos de Aprendizagem de Máquina. Outros incluem Programação Python, Análise de Business Intelligence e certificados de ciência de dados com foco em ferramentas e habilidades específicas, como SAS, R e TensorFlow.

Pré-requisitos: varia por certificação e curso Taxa de matrícula: US$ 4.735Localização: on-line Duração: pelo menos um ano; um ano e três meses é a média

Certificação em Ciência de Dados, Georgetown University School of Continuing Studies

O Certificado de Ciência de Dados da Georgetown ensinará tudo o que você precisa saber para coletar, limpar, modelar e apresentar dados. Os alunos usam a linguagem de programação Python e adquirem experiência prática na criação e apresentação de visualizações, modelos preditivos e análises, que o prepararão para trabalhar com dados em uma configuração comercial. No final deste programa, Georgetown diz que os alunos serão capazes de aplicar o pipeline da ciência de dados a fluxos de trabalho analíticos, usar práticas de programação eficazes, utilizar e consultar bancos de dados relacionais e NoSQL, encontrar perspectivas mais profundas em dados, criar modelos preditivos e criar visualizações efetivas.

Pré-requisitos: experiência básica de programação Taxa de matrícula: US$ 7.496 custo total estimado Localização: no campus Duração: oito cursos ao longo de seis meses

Certificação de Desempenho Profissional em Ciências de Dados, Columbia University

A Columbia University oferece uma certificação de desempenho profissional em ciências de dados, que é um programa de meio período sem graduação. No entanto, se você concluir este programa de certificação, os créditos podem ser aplicados a um mestre da ciência de Columbia. Os cursos enfocam os fundamentos da ciência de dados, incluindo algoritmos, probabilidade e estatística, análise exploratória de dados e visualização e aprendizado de máquina. Cada curso também tem seus próprios pré-requisitos em relação à habilidades de programação, matemática e ciências, por isso certifique-se de verificar se você tem o background certo para cada curso individual.

Pré-requisitos: curso de graduação, curso prévio de programação quantitativa e introdutória Taxa de matrícula: US$ 1.936 por créditoLocalização: on-line ou no campus Duração: 12 créditos; a maioria dos alunos conclui o programa dentro de um ano e deve ser completada dentro de cinco

Programa de Certificação em Ciência de Dados, UC Berkeley Extension

O Programa de Certificação em Ciência de Dados da UC Berkeley Extension requer um curso principal, um curso de programação, um curso de aprendizado de máquina e até quatro disciplinas eletivas. A UC Berkeley Extension promete ajudá-lo a “adquirir as habilidades necessárias para realizar discussões avançadas de dados, mineração de dados, modelagem estatística e aprendizado de máquina em conjuntos de dados, que podem ser muito grandes e complexos”. Os cursos cobrem os fundamentos da ciência de dados, programação em R e Python , análise de dados e computação científica, aprendizado de máquina com ferramentas como TensorFlow, Spark e R, entre outros assuntos.

Pré-requisitos: conhecimento de estatísticas do primeiro semestre de um curso de graduação ou superior; a capacidade de programar em pelo menos uma linguagem de programação de alto nível como Python, Java, Ruby, JavaScript, C ou C++ Taxa de matrícula: US$ 5.100 (custo estimado sem incluir materiais do curso ou taxas de inscrição) Localização: on-lineDuração: 10 unidades semestrais, cerca de 150 horas de instrução; deve ser concluído dentro de três anos

Certificação de pós-graduação de Mineração de Dados e Aplicativos, Stanford Center for Professional Development

O Stanford Center for Professional Development oferece um programa de certificação de pós-graduação de Mineração de Dados e Aplicativos. O programa de três cursos abrange o uso de métodos estatísticos para extrair significado de grandes conjuntos de dados, desenvolvimento e uso de modelos preditivos e análises, e como usar aplicativos estratégicos de tomada de decisão. É mais adequado para cientistas de dados, gerentes de estratégia, pesquisadores científicos, pesquisadores médicos, pesquisadores de ciências sociais, analistas de dados e consultores, e profissionais de publicidade e marketing.

Pré-requisitos: você precisará de um diploma de bacharel com um GPA de graduação de 3,5 ou mais e cursos introdutórios em estatística ou probabilidade, álgebra linear e programação de computadores Taxa de matrícula: US$ 11.340 – US$ 12.600 (9-10 unidades) Localização: on-lineDuração: um a dois anos em média; programa deve ser concluído dentro de três anos

Ciência de Dados A-Z: Exercícios de Ciência de Dados da Vida Real, Udemy

Se você preferir aprender sozinho em seu próprio tempo tempo, ou se quiser testar as águas antes de investir milhares em aulas, você pode se interessar pelo curso de Ciência de Dados A-Z, oferecida pela Udemy. Os alunos têm acesso às instruções passo a passo por meio de mineração de dados, modelagem, visualizações de tableau e muito mais. Inclui 21 horas de vídeos sob demanda, acesso vitalício ao conteúdo e um certificado de conclusão; há também uma garantia de reembolso de 30 dias, caso você não esteja satisfeito.

Pré-requisitos: nenhum Taxa de matrícula: US$ 199, mas atualmente à venda por US$ 10,99 Localização: on-line Duração: individualizado

Certificação de Ciência de Dados, Harvard Extension School

Para obter um certificado de ciência de dados da Harvard Extension School, você precisará concluir e obter pelo menos uma nota B em quatro cursos de certificação dentro de três anos. Você escolherá duas disciplinas eletivas de um grupo selecionado, uma exigirá curso de ciência de dados de outro grupo selecionado, e ambos um curso de estatística de nível básico e nível avançado. Esta certificação é melhor para aqueles que já têm conhecimento de programação – especialmente Python – e aqueles que buscam obter créditos de pós-graduação.

Pré-requisitos: conhecimento prévio em estatística e programação básica, incluindo conhecimento prévio de Python Taxa de matrícula: US$ 11.000 total, em média Localização: on-line e pessoalmente Duração: deve ser concluído dentro de três anos

Programa de Certificação de Ciência de Dados, eCornell

A Cornell University oferece vários certificados de ciência de dados por meio da eCornell, que é o departamento de educação on-line da universidade. Você pode escolher entre certificados personalizados que incluem análise de negócios, estatísticas de negócios, aprendizado de máquina, análise de dados, análise de dados 360 e marketing orientado a dados. Cada programa tem requisitos diferentes, mas você pode fazer um pré-teste gratuito para cada programa de certificação para ver se tem a experiência e o histórico exatos.

Pré-requisitos: não há pré-requisitos, mas você pode fazer um pré-teste para cada certificação para ver se você está qualificado. Taxa de matrícula:US$ 1.260 – US$ 9.800 dependendo do curso Localização: on-line Duração:individualizado

Ciência de Dados para Executivos, Columbia University

Columbia University’s School of Engineering offers a Data Science for Executives certificate program through EdX. It’s geared toward executives who want to learn more about statistical thinking, machine learning and how data will impact businesses in the future. It addresses the unique information that executives need to know as data becomes fundamental in the enterprise. The courses are taught by professors at Columbia University through EdX’s online platform.

A Escola de Engenharia da Columbia University oferece um programa de certificação de Ciência de Dados para Executivos por meio da EdX. Ele é voltado para executivos que desejam aprender mais sobre o pensamento estatístico, o aprendizado de máquina e como os dados afetarão as empresas no futuro. O programa aborda as informações exclusivas que os executivos precisam saber, à medida que os dados se tornam fundamentais na empresa. Os cursos são ministrados por professores da Columbia University através da plataforma online da EdX.

Pré-requisitos: nenhum Taxa de matrícula: US$ 347 Localização: on-line Duração: cinco semanas por curso

Fonte: CIO

Aliadas, tecnologia e dados de consumo ajudam marcas a otimizar sua performance em vendas

Por Ricardo Rodrigues (*)

Você sabia que, em média, menos de 2% dos visitantes que chegam a um e-commerce compram no ato? Desse dado é possível concluir muita coisa. Primeiro que nenhum negócio consegue sobreviver exclusivamente de compras por impulso. A conta de investimento em atração de público versus vendas nunca vai fechar desse jeito. O que nos leva ao segundo ponto: só porque 98% de usuários deixam um site sem comprar nada, não significa que eles não gostaram dos produtos ou não têm intenção de converter com a marca em algum momento. Essas pessoas simplesmente não estavam prontas para comprar.

E isso pode acontecer por diversos motivos – o consumidor estava sem o cartão de crédito na hora, com pressa para buscar o filho na escola ou se distraiu com um e-mail de trabalho. Isso acontece porque a jornada de compra não é linear. Ao mesmo tempo, as marcas não podem simplesmente desperdiçar todo esse volume de potenciais clientes, que entraram no site e demonstraram interesse nos produtos. Portanto as empresas precisam ajudar as pessoas a tomarem uma decisão de compra e o melhor caminho para fazer isso é através dos dados de consumo, que indicam o perfil e comportamento do público de uma empresa e podem orientar campanhas mais assertivas.

Desvendando o perfil do consumidor através dos dados

Para otimizar a estratégia de marketing digital, o primeiro passo é  identificar quem são os visitantes do site – as necessidades e desejos do consumidor. Entender com profundidade o comportamento desses usuários  enquanto navegam nas páginas do site e quais são os produtos e categorias em que tem mais interesse é essencial para que as marcas criem campanhas mais direcionadas e personalizadas, com maior potencial de conversão, fazendo com que cada consumidor se sinta especial, mais próximo e querido pela empresa.

Todo este processo, desde a primeira identificação do cliente com a marca até a fidelização e recompra, é definido pela jornada de compra.  O objetivo de qualquer negócio online é buscar a evolução do visitante nesse processo, para que se torne um comprador fiel e constante, justamente pela boa experiência vivida no e-commerce.

Uma estratégia baseada em dados

Uma vez identificados os perfis de consumo dos consumidores, é possível aplicar uma comunicação humanizada, adequada ao momento em que aquele usuário está na sua jornada de compra.

Por exemplo: resultados preliminares de uma pesquisa de neurociência e linguística, liderada pela Social Miner, mostram que quando um novo visitante entra num site e está na fase de consideração da sua jornada de compra, usar uma linguagem mais afetiva e empática pode performar até 17% melhor. Ou seja, para cadastrar mais leads, o ideal é que as marcas sejam receptivas e encantem o seu potencial cliente. Na fase de avaliação, o compartilhamento de informações sobre os produtos – utilidades e vantagens – pode garantir resultados até 23% melhores.

Já na fase de conversão, a oferta de benefícios financeiros, como descontos e condições especiais, são mais relevantes em 60% dos casos e, na fase de retenção, o cuidado com a experiência pós-compra, bem como conteúdos que proporcionam uma boa experiência garantem a fidelização.

Estudamos ainda a relação entre a navegação do usuário em um site com a sua intenção de compra. E descobrimos que quanto mais engajado esse consumidor está, visitando mais páginas, maiores são as suas chances de conversão. Isso significa que podemos prever, com baixíssimo grau de erro, a probabilidade de um visitante comprar ou não, baseado em seu comportamento de navegação. Uma boa estratégia de engajamento ajuda as marcas a guiarem a navegação dos seus visitantes dentro do site, multiplicando as oportunidades de venda.

Automação x humanização: é possível ter os dois ao mesmo tempo?

A automação, aliada à personalização, permite que as marcas tratem os seus clientes com exclusividade e melhor: faça isso de forma escalável. Ou seja, a tecnologia faz o trabalho duro de análise de dados, enquanto as equipes de marketing podem focar no que realmente importa: as pessoas e o que elas esperam das marcas.

É, portanto, um recurso essencial tanto para grandes, quanto para pequenas e médias empresas. Num cenário de grandes e-commerces, os recursos ajudam a vencer o desafio de criar campanhas humanizadas, em escala. Já para o pequeno e médio empreendedor, oferece diferencial competitivo – baseada na experiência de compra humanizada – já que nem sempre essas organizações podem brigar por preço. Chamamos essa metodologia, que garante até 3,5 vezes mais conversões para as marcas, de People Marketing.

Por fim, é sempre importante buscar parceiros de confiança para que a sua marca esteja em boas mãos, afinal é a sua reputação que está em jogo. Existem empresas que podem te ajudar nesse sentido: criando verdadeiros laços entre a sua marca e seus clientes. Nós da Social Miner promovemos uma comunicação humanizada e automatizada para e-commerces aumentarem suas vendas. Minha dica é: valorize seu consumidor e fale com ele como se fossem bons amigos. Seja autêntico e, com certeza, você irá se destacar no mercado.

(*) Ricardo Rodrigues é cofundador da Social Miner

Fonte: Proxxima

GARTNER IDENTIFICA CINCO MITOS SOBRE O USO DE INTELIGÊNCIA ARTIFICIAL NAS EMPRESAS

Os líderes de TI e de negócios geralmente ficam confusos sobre o que a Inteligência Artificial (IA) pode fazer por suas organizações e são frequentemente desafiados por falsas ideias sobre como aplicar os conceitos dessa tecnologia em suas organizações. O Gartner Inc., líder mundial em pesquisa e aconselhamento para empresas, avalia que os gestores de TI e negócios que desenvolvem projetos de inteligência artificial devem separar a realidade dos mitos para elaborar suas estratégias de inovação para o futuro.

“Com a tecnologia de IA ​​entrando nas companhias, é crucial que os líderes de negócios e de TI compreendam completamente como as soluções inteligentes podem criar valor para seus negócios e onde estão suas limitações”, diz Alexander Linden, Vice-Presidente de pesquisa do Gartner. “As tecnologias de Inteligência Artificial só podem gerar valor se fizerem parte da estratégia da organização e forem usadas da maneira correta”.

Para evitar concepções erradas, o Gartner anuncia cinco mitos sobre o uso da Inteligência Artificial:

Mito 1: A Inteligência Artificial funciona da mesma maneira que o cérebro humano

A Inteligência Artificial é uma disciplina de engenharia da computação. Em seu estado atual, consiste em ferramentas de software destinadas a resolver problemas. Embora algumas formas de IA sejam altamente capacitadas e habilidosas, seria impossível pensar que as aplicações inteligentes atuais são semelhantes ou equivalentes à inteligência humana.

“Algumas formas de aprendizado de máquina (ML – de Machine Learning, em inglês), que é uma categoria de inteligência artificial, podem ter sido inspiradas pelo cérebro humano, mas não são equivalentes”, afirma Linden. “A tecnologia de reconhecimento de imagem, por exemplo, é mais precisa do que a maioria dos humanos, mas não é útil quando se trata de resolver um problema de matemática. A regra com a Inteligência Artificial, hoje, é que ela resolve uma tarefa extremamente bem, mas, se as condições da tarefa mudarem um pouco, essa tecnologia falhará”.

Mito 2: Máquinas inteligentes aprendem por conta própria

A intervenção humana é necessária para desenvolver uma máquina ou um sistema baseado em Inteligência Artificial. O envolvimento pode vir de experientes cientistas de dados humanos, que são imprescindíveis para executar tarefas como definir e enquadrar quais são as questões a serem executadas, preparar os dados, determinar conjuntos de informações apropriados para a análise, remover possíveis erros (ver mito 3) e – o mais importante – para atualizar continuamente o software, permitindo a integração de novos conhecimentos e de aprendizagem para o próximo ciclo de inovação presente nas máquinas.

Mito 3: Inteligência Artificial pode ser livre de preconceito

Toda tecnologia de Inteligência Artificial é baseada em dados, regras e outros tipos de informações fornecidas por especialistas humanos. Semelhante aos humanos, as aplicações inteligentes também são intrinsecamente enviesadas por uma forma ou outra de análise.

“Hoje, não há como banir completamente o preconceito, no entanto, temos que tentar reduzi-lo ao mínimo”, diz Linden. “Além de soluções tecnológicas, como diversos conjuntos de dados, também é crucial garantir a diversidade nas equipes que trabalham com a Inteligência Artificial e fazer com que os membros da equipe revisem o trabalho uns dos outros. Esse processo simples pode reduzir significativamente o viés de seleção e confirmação”.

Mito 4: A Inteligência Artificial só substituirá trabalhos repetitivos e que não exigem graus avançados

A Inteligência Artificial permite que as empresas tomem decisões mais precisas por meio de previsões, classificações e agrupamentos da análise de dados. Essas habilidades das soluções baseadas em IA permitiram que as empresas reduzissem as demandas acerca das tarefas mais comuns, mas, por outro lado, também aumentaram a complexidade das tarefas remanescentes. Um exemplo é o uso de Inteligência Artificial na avaliação de imagens na área da saúde. Uma radiografia de tórax baseada em IA pode detectar doenças mais rapidamente que radiologistas. No setor financeiro e de seguros, robôs estão sendo usados ​​para o gerenciamento de rendas ou detecção de fraudes. Essas capacidades não eliminam o envolvimento humano nessas tarefas, mas permitem que os humanos lidem apenas com os casos incomuns ou mais específicos. Com o avanço da Inteligência Artificial ​​no local de trabalho, os líderes de negócios e de TI devem ajustar os perfis de trabalho e o planejamento das habilidades de suas equipes, além de oferecer opções de certificações e reciclagem de conhecimento para os profissionais já presentes na companhia.

Mito 5: Nem todas as empresas precisam de uma estratégia de Inteligência Artificial

Todas as organizações devem considerar o impacto potencial das soluções de Inteligência Artificial ​​em suas estratégias e investigar como essa tecnologia pode ser aplicada às demandas de suas operações. Evitar a exploração da Inteligência Artificial é o mesmo que abandonar a próxima fase da automação, o que, em última análise, poderia colocar as companhias em desvantagem competitiva.

“Mesmo que a estratégia atual de uma empresa não utilize a Inteligência Artificial, é importante que os líderes de negócios dessa companhia avaliem esse tema para tomar uma decisão consciente, baseada em muita pesquisa e avaliação do cenário. E como em relação a qualquer outra estratégia, é sempre recomendável que as companhias revisitem periodicamente seus planos, alterando suas diretrizes e rumos de acordo com as necessidades da organização. As ferramentas de Inteligência Artificial podem ser necessárias mais cedo do que o esperado”, finaliza Linden.

Fonte: Digitalks

O que você não está vendo no MWC: fim dos apps e edge computing.

Está no MWC, mas nem todo mundo está vendo.

Os apps como os conhecemos vão ir desaparecendo aos poucos, cedendo lugar a uma nova era de “aplicativos”, se é que os chamaremos assim, em que a integração com a internet será mais íntima e pervasiva, em que plataformas de interação cognitiva, anabolisadas por dados, falarão (literalmente) de forma mais próxima conosco e em que as marcas terão a sua disposição, para conversar de maneira interativa direta, recursos digitais em tempo real, one to one, como nunca tivemos antes.

Quem acompanha o MWC todos os anos está vendo isso acontecer em capítulos. De uma certa forma, quase em câmera lenta.

Embora sempre repitamos, com razão, que as transformações tecnológicas digitais avançam a uma velocidade estonteante, essa substituição dos apps, instalados em nossos celulares, por uma nova geração tecnológica de interação direta entre o emissor (qualquer emissor, aquele que aciona uma cadeia de interação) e nós, humanos consumidores e usuários, vem se dando de maneira gradual. E deverá seguir assim.

Quando digo fim dos apps, digo fim dos aplicativos que temos hoje populando a tela de início dos nos celulares, você sabe. Eles nos são hoje indispensáveis e fica difícil imaginar a vida sem eles.

Mas veja, tudo o que fazem e os benefícios que nos entregam, seguirão. E serão ainda mais sofisticados. O que fica cada vez mais claro a cada MWC é que eles irão cedendo espaço a plataformas que conversarão mais conosco, seja por voz (as assistentes de voz que viraram celebridades de dois anos para cá), que é a tendência mais clara hoje, seja por video-conf (imagem), e que estarão embarcadas em todas as coisas, a Internet das Coisas.

Até os próprios celulares, na mesma linha da câmera lenta, irão sendo substituídos aos poucos por torradeiras. If you know what I mean.

Isso está no MWC 2019 como está também, só que nas salas mais técnicas, a discussão sobre edge computing, que é mais cabeçuda e difícil para quem não é do mundo telcom, como é o seu caso e o meu, mas que vale aqui comentarmos, porque é um pedaço importante de todos os parágrafos aí de cima, aquela parte que nós leigos não vemos, mas que viabiliza a interface que chega até nós e com a qual interagimos.

Tentando facilitar nossa vida aqui, o tal edge computing é uma camada de infra-estrutura de armazenagem e transmissão de dados que vai ficar (já está ficando) entre a nuvem e nossos aparatos móveis de dia a dia. Ela vai trazer mais agilidade, eficiência e flexibilidade ao tráfego de dados e, portanto, para nossa vida em geral. Chama-se edge porque fica na franja de rede mais próxima dos devices que levamos no bolso hoje, ou de qualquer aparelho/máquina que se conecte com a internet.

É papo de infra-estrutura de rede, mas que vai possibilitar que novos e ainda mais diversificados recursos de aparelhos celulares possam ser desenvolvidos e que, por exemplo, campanhas interativas das marcas sejam resolvidas com maiores e melhores recursos digitais interativos.

Bom, se não entendeu, deixa pra lá. Quis apenas sinalizar aqui que o edge computing vai vir e que vai ajudar a nos conectarmos de forma ainda mais rápida e rica, no ambiente mobile.

Mais do que toda a nova coleção de aparelhos móveis que o MWC 2019 está exibindo, são essas transformações as que de fato vão mudar mais profundamente o mundo (cada vez mais mobile) em que vivemos.

Fonte: Proxxima

CI&T aponta tendências da transformação digital para 2019

Relevância da cultura baseada em dados, necessidade de autonomia às áreas e mudanças no marketing digital estão entre as tendências para a jornada de transformação digital das empresas no próximo ano

De acordo com o Gartner, a transformação digital de negócios passou de experimento para mainstream. As iniciativas digitais vão liderar a lista de prioridades dos CIOs em 2019, com 33% das empresas nas etapas de escala ou refino da maturidade digital – um número acima dos 17% em 2018. Outro dado que chama a atenção é que apenas 4% das organizações não terão nenhuma iniciativa digital no próximo ano, o que sinaliza essa mudança do digital como uma plataforma mainstream.

CI&T, multinacional brasileira especializada em transformação digital de grandes marcas com presença global, compartilha algumas tendências desse mercado para o próximo ano:

Adoção da cultura data-driven: As organizações deverão intensificar o uso de dados como parte do planejamento e estratégias de negócios para todas as suas áreas. Uma cultura baseada em dados permite o monitoramento em tempo real das principais fontes de informação, tanto para guiar processos-chave de transformação digital como realizar atualizações tempestivas no desempenho de lançamentos de novos produtos e serviços. Para compreender as interações com os consumidores, as empresas terão que possuir maior competência em análise de dados (analytics). O uso do analytics fará toda a diferença para criar novas jornadas, onde o consumidor terá suas necessidades antecipadas e supridas de forma sem precedentes, assim como a identificação e a correção tempestiva de pontos de fricção. Ao se tornar uma organização mais inteligente e data-driven, será possível retroalimentar o negócio com dados e insights, construindo uma cultura de valor com foco no cliente e, consequentemente, impulsionando os negócios.

Mudanças do marketing no digital – Em 2019, as marcas deverão intensificar ainda mais a substituição das técnicas tradicionais por um novo mindset, mudando suas estratégias de marketing para focá-las no estímulo à experimentação e, principalmente, na inserção do cliente no centro do negócio entendendo não apenas seu mix de canais, mas sua relação com múltiplos touchpoints on e offline. O chamado Agile Marketing precisará ser implementado, com ciclos curtos e rápidos aprendizados como parte do processo de transformação digital. Para isso, equipes de marketing deverão estudar mais e correr atrás dos resultados.

Revolução da Inteligência Artificial (IA) – Outra tendência que crescerá exponencialmente será a aplicação da Inteligência Artificial, especialmente em assistentes virtuais para a oferta de experiências altamente convenientes, personalizadas e onipresentes aos consumidores. A IA vai provocar uma verdadeira revolução nos negócios peer-to-peer oupeer-to-machine, para transformá-los em machine-to-machine através da voz.

Autonomia e empoderamento das áreas – A quebra de estruturas de silos (departamentos) para dar lugar às equipes multidisciplinares (SQUADs) nas organizações está entre as ações-chave do processo de mudança cultura da transformação digital. A tendência é a formação de equipes com mais autonomia e empoderamento, agindo de forma colaborativa, em torno de um objetivo comum e com incentivo à experimentação e inovação, para que a empresa ganhe a velocidade que o mercado exige na tomada de decisões que vão gerar real valor aos seus consumidores.

Capacidade de lidar com riscos – A transformação digital traz muitos desafios e riscos também. Ano a ano, as empresas precisarão estar cada vez mais preparadas para lidar com os riscos dessa jornada, que inclui testes e experimentos fundamentais para a evolução da marca no ambiente digital. As organizações vão precisar entender que a missão de resolver problemas vai além de uma área específica, para ser tratada de forma global por todas as esferas, especialmente a do cliente.

“Em 2019, teremos que ter um olhar ainda mais profundo para as capacidades disruptivas dessas tendências, que vão provocar grandes transformações nas relações entre os consumidores e as marcas”, disse Marcelo Trevisani, CMO da CI&T.

Fonte: Proxxima

Segurança e acesso a dados preocupam times de analytics

Estudo da MicroStrategy mapeia o estágio da incorporação de boas práticas de gestão de dados em empresas no Brasil e no mundo

Cerca de 78% dos profissionais brasileiros que trabalham com dados e ferramentas de analytics acreditam que suas empresas estão utilizando tecnologias de dados de maneira efetiva. Para 75% deles, estas tecnologias tem cumprido um papel importante na transformação digital de suas organizações.

Os dados são da MicroStrategy (MSTR), empresa que oferece plataformas de análise de dados e softwares de mobilidade ao mercado. A companhia realizou um estudo com 500 profissionais das áreas de analytics e BI para descobrir o estágio da adoção de práticas da analytics nas empresas.

A pesquisa Global State of Enterprise Analytics foi realizada em abril com respondentes da Alemanha, Reino Unido, Estados Unidos e Brasil, em parceria com a consultoria de pesquisa Hall & Partners. Os participantes representam empresas com entre 250 e 20 mil funcionários.

Segundo 62% dos brasileiros que participaram da pesquisa, a principal aplicação de ferramentas de analytics está na orientação de estratégias. Já 57% buscam usar dados para sistematizar processos e otimizar custos. Mais da metade usa dados para monitorar o desempenho financeiro da empresa e gerenciar riscos de mercado. Usar dados para desenvolver produtos e atrair clientes, por sua vez, está no escopo de 45% dos profissionais brasileiros.

Ainda, 6 em cada 10 profissionais brasileiros dizem obter mais eficiência e produtividade dos processos de trabalho com o apoio de dados. As áreas que mais fazem uso de ferramentas de analytics são TI, finanças e Serviços ao Consumidor.

Quando questionados sobre as tendências que terão os impactos mais significativos sobre as práticas de analytics nos próximos cinco anos, os entrevistados brasileiros ranquearam tecnologias de cloud computing, big data e inteligência artificial como as mais relevantes.

Profissionalização dos departamentos de dados

A pesquisa identificou que 62% das empresas brasileiras já contam com um chief data officer (CDO) e 17% estão considerando criar uma posição voltada para a gestão de dados. De forma a otimizar seus processos de gestão, 46% consideram migrar toda sua estrutura de TI para a nuvem e 80% planejam investir mais em analytics nos próximos anos. Ainda, 77% das empresas brasileiras planejam investir na contratação de talentos com especialidades analíticas em um futuro próximo.

Desafios

Apesar do olhar atento às disciplinas ligadas a dados, muitas empresas ainda esbarram em problemas que impedem a consolidação de práticas de analytics. De acordo com 48% dos brasileiros participantes, a principal barreira para o uso de data e analytics em suas empresas é a preocupação com a segurança de dados. Em segundo lugar, segundo 30% dos respondentes, está a falta de treinamento para os profissionais, e, em terceiro, o acesso limitado aos dados da organização, conforme apontaram 27% dos participantes.

O uso de soluções tecnológicas pouco amigáveis ao trabalho com dados é um empecilho para 23% dos profissionais. Além disso, 20% acreditam que suas empresas não possuem uma estratégia orientada para dados e que o uso de analytics não é uma prioridade para os executivos.

Fonte: Meio & Mensagem