7 certificações de análise de dados que compensarão

Análise de dados e big data são a força vital de qualquer negócio bem sucedido. Obter a tecnologia certa pode ser um desafio, mas construir a equipe certa com as habilidades certas para empreender iniciativas de big data pode ser ainda mais difícil. Não surpreendentemente, esse desafio é refletido na crescente demanda por habilidades e certificações de Big Data.

Se você está procurando uma maneira de obter vantagem, a certificação de big data é uma ótima opção. As certificações medem seus conhecimentos e habilidades em relação a benchmarks específicos do setor e do fornecedor para provar aos empregadores que você tem as habilidades certas. O número de certificados de análise de dados está se expandindo rapidamente.

Abaixo está o nosso guia sobre as mais procuradas certificações de análise de dados e big data para ajudá-lo a decidir qual é o certificado certo para você.

A certificação de análise de dados e de big data valem a pena?

As organizações estão em busca de cientistas de dados e analistas com experiência em lidar com big data.

Essas habilidades estão em alta demanda e são relativamente raras. Indivíduos com a mistura certa de experiência e habilidades podem exigir altos salários. As certificações certas podem ajudar.

De acordo com uma pesquisa recente da empresa de análise de tecnologia Foote Partners, a explosão de interesse por internet das coisas (IoT) está criando grandes déficits de pessoal. A IDC está prevendo um CAGR de 30% nos próximos cinco anos, enquanto a McKinsey espera que a IoT tenha um impacto econômico global de US$ 4 trilhões a US$ 11 trilhões até 2025, já que as empresas buscam mais insights sobre as tecnologias da IoT.

A Foote Partners acredita que a análise avançada de dados será uma das principais forças que impulsionam a IoT. Ela observa que as principais habilidades avançadas de análise na área de IoT incluem:

  • Apache Hadoop e módulos relacionados (HDFS, HBase, Flume, Oozie, Hive, Pig, YARN)
  • NoSQL and NewSQL
  • Apache Spark
  • Machine learning e data mining

“As capacidades avançadas de análise de dados são críticas demais para se manter competitiva”, diz David Foote, cofundador, analista chefe e diretor de pesquisa da Foote Partners. “Eles se expandiram em popularidade de alguns setores para quase todos os setores e mercados”.

As 7 principais certificações de análises de dados e de big data

  • Certification of Professional Achievement in Data Sciences
  • Certified Analytics Professional
  • Cloudera Certified Associate (CCA) Data Analyst
  • EMC Proven Professional Data Scientist Associate (EMCDSA)
  • MapR Certified Data Analyst
  • Microsoft Certified Solutions Expert (MCSE): Data Management and Analytics
  • SAS Certified Data Scientist Using SAS 9

Certification of Professional Achievement in Data Sciences

Certification of Professional Achievement in Data Sciences é um programa de graduação que visa desenvolver mecanismos com habilidades fundamentais em ciência de dados. O programa consiste em quatro cursos: Algoritmos para Ciência de Dados, Probabilidade e Estatística, Machine Learning para Ciência de Dados, Análise Exploratória de Dados e Visualização.

Organização: Columbia University

Preço: US$ 1.936 por crédito (um mínimo de 12 créditos, incluindo os quatro cursos, são necessários para completar o programa). Além disso, há uma taxa de inscrição não reembolsável de US$ 85 para o programa no campus e US$ 150 para o programa on-line. O programa on-line também inclui uma taxa de tecnologia adicional não reembolsável de US$ 395 por curso.

Como se preparar: um curso de graduação e quantitativa prévia e introdutória à programação de computadores são necessários.

Certified Analytics Professional

Certified Analytics Professional (CAP) é uma certificação analítica geral que certifica o entendimento completo do processo analítico, desde a estruturação de problemas analíticos e de negócios até a aquisição de dados, metodologia, construção de modelo, implantação e gerenciamento do ciclo de vida do modelo. Requer a conclusão do exame CAP e a adesão ao Código de Ética da CAP.

Organização: INFORMS

Preço: US$ 495 se você é um membro do INFORMS, ou US$ 695 se não for. O preço de equipe está disponível para as organizações.

Como se preparar: uma lista de cursos de estudo e uma série de webinars estão disponíveis por meio do registro.

Cloudera Certified Associate (CCA) Data Analyst

Um desenvolvedor de SQL que recebe a certificação CCA Data Analystdemonstra as principais habilidades de um analista para carregar, transformar e modelar dados do Hadoop para definir relacionamentos e extrair resultados significativos de produção crua. Ele exige a aprovação no exame de análise de dados CCA (CCA159), um conjunto controlado de controle remoto de oito a 12 tarefas práticas baseadas em desempenho em um cluster CDH 5. Os candidatos têm 120 minutos para implementar uma solução técnica para cada tarefa. Eles devem analisar o problema e chegar a uma abordagem ideal no tempo permitido.

Organização: Cloudera

Preço: US$ 295

Como se preparar: a Cloudera recomenda que os candidatos façam o curso Cloudera Data Analyst Training, que tem os mesmos objetivos do exame.

EMC Proven Professional Data Scientist Associate (EMCDSA)

A certificação EMCDSA demonstra a capacidade de um indivíduo de participar e contribuir como membro da equipe de ciência de dados em projetos de big data. Inclui a implementação do ciclo de vida de análise de dados, reformulando um desafio de negócios como um desafio analítico, aplicando técnicas e ferramentas analíticas para analisar big data e criar modelos estatísticos, selecionando as visualizações de dados apropriadas e muito mais.

Organização: Dell EMC Education Services

Preço: US$ 600 por streaming de vídeo-ILT; US$ 5 mil por curso ministrado por instrutor

Como se preparar: a EMC oferece um curso de treinamento, disponível em vídeo ou um curso ministrado por instrutor.

MapR Certified Data Analyst

A credencial do MapR Certified Data Analyst valida a capacidade de um indivíduo de executar análises em grandes conjuntos de dados usando uma variedade de ferramentas, incluindo Apache Hive, Apache Pig e Apache Drill. O exame testa a capacidade de executar tarefas típicas de ETL para manipular dados para realizar consultas. As perguntas abordam as consultas SQL existentes, incluindo a depuração de consultas malformadas de um determinado fragmento de código, a escolha das funções de consulta corretas para produzir um resultado desejado e as tarefas comuns de solução de problemas. O exame consiste em 50-60 perguntas em uma sessão supervisionada de duas horas.

Organização: MapR Technologies

Preço: US$ 250 para o exame

Como se preparar: o MapR recomenda que os candidatos se preparem com quatro de seus cursos: Introduction to SQL Analytics with Apache Drill, Apache Drill Performance e Debugging, Apache Hive Essentials e Apache Pig Essentials. O MapR também oferece um Guia de Estudo do MCDA.

Microsoft Certified Solutions Expert (MCSE): Data Management and Analytics

A credencial MCSE: Data Management and Analytics demonstra os amplos conjuntos de habilidades em administração SQL, criando soluções de dados em escala corporativa e aproveitando dados de business intelligence (BI) em ambientes locais e em nuvem. Para obter a certificação, os candidatos devem passar em um dos 12 exames.

Organização: Microsoft

Preço: US$ 165 por exame

Como se preparar: para obter essa credencial, você deve primeiro obter uma das sete Certificações Microsoft Certified Solutions Associate (MSCA): MSCA SQL Server 2012/2014; MCSA: SQL 2016 Database Administration; MCSA: SQL 2016 Database Development; MCSA: SQL 2016 BI Development; MCSA Machine Learning; MCSA: BI Reporting; or MCSA: Data Engineering with Azure. Além disso, a Microsoft oferece ferramentas de preparação para cada um dos 12 exames que levam à certificação MCSE: Data Management and Analytics.

SAS Certified Data Scientist Using SAS 9

A credencial SAS Certified Data Scientist Using SAS 9 demonstra que os indivíduos podem manipular e obter insights de big data com uma variedade de ferramentas SAS e de código aberto, fazer recomendações de negócios com modelos complexos de aprendizado e implantar modelos em escala usando o ambiente SAS. A certificação exige a aprovação de cinco exames que incluem perguntas de múltipla escolha, respostas curtas e interativas (em um ambiente SAS simulado). Os exames incluem:

  • SAS Big Data Preparation, Statistics and Visual Exploration
  • SAS Big Data Programming and Loading
  • Predictive Modeling Using SAS Enterprise Miner 7, 13, or 14
  • SAS Advanced Predictive Modeling
  • SAS Text Analytics, Time Series, Experimentation and Optimazation

Organização: SAS

Preço: US$ 180 por cada exame; US$ 250 para Predictive Modeling Using SAS Enterprise Miner

Como se preparar: o SAS recomenda que os candidatos se preparem usando seu currículo SAS Data Science da SAS Academy for Data Science. Ele custa US$ 4.400 para um curso de ensino à distância individualizado, ou US$ 16 mil para um programa de 12 semanas ministrado por instrutor em Cary, na Carolina do Norte.

Fonte: CIO

A era do dataísmo e os próximos passos do marketing

O dataísmo é a nova religião dos dados. No passado acreditava-se muito nos princípios da fé para ter respostas às angústias que nos cercavam. Agora os poderosos algoritmos nos dão encaminhamento para as respostas. Alguns usam as estatísticas assim como os bêbados, mais para apoio do que para iluminação.

Antes eu estimava o tempo que levaria para me locomover de A para B, hoje tenho o tempo exato. Antes recorria à intuição dos mais velhos para saber se ocorreria uma chuva durante o dia, hoje tenho a previsão exata se isto acontecerá. Antes fazia minhas orações para não ser acometido por uma doença grave, hoje os testes de DNA fazem análises preditivas. Quando queríamos saber alguma informação para nos ajudar a decidir, recorríamos antigamente ao professor, ao chefe e até ao padre da paróquia. Tínhamos como base de conhecimento as grandes religiões, como o Cristianismo, o Hinduísmo, o Budismo e o Islamismo.

Não sou mais um profissional de marketing, hoje sou um profissional de Matemarketing, minha vida é sufocada por dados. No passado quando encontrava os meus pares de mercado, a pergunta mutua que me faziam era: qual é a sua agência de publicidade?  Hoje perguntamos: quais são as martechs que estão plugadas no seu negócio? Todas as martechs tem no seu DNA algoritmos potentes que geram dados, que por sua vez geram informações, que por sua vez geram a big idea.

A sequência é mais ou menos essa: Biga Data, Data, Small data, insight.  No período da big ideia pura, para aprovar uma campanha havia necessidade de muitas autorizações, assinaturas e carimbos dando autenticidade de que a ideia havia sido aprovada. Era um vai vem de papel, pranchas, assinaturas, etc. Hoje é muito comum o analista fazer uma campanha nas redes sociais, ninguém viu, ninguém aprovou e ninguém opinou. Ela impacta 1 milhão de pessoas, geram milhões de impressões, click views e centenas de clientes interessados etc. Com custo de aquisição de cliente e prospect, e acuracidade de 06 casas depois da vírgula. Tudo é absolutamente mensurado. Acabou a era dos palpiteiros de plantão.

Estamos vivendo a era do Dataísmo, a nova religião de dados, tudo se explica através de números. Os profissionais de marketing e comunicação que não acordarem para esta nova realidade estão fora da arena de negócios. Independentemente da carreira que atuamos, todos deveremos ser proficientes em competências analíticas, sobretudo os profissionais de humanas que passaram e ter que incorporar essa nova habilidade no seu grid. Ouso afirmar que o Big Data adquiriu um protagonismo significativo nos últimos anos a ponto de parear com o big ideia, no entanto um não vive sem o outro. Profissionais de humanas, bem-vindos ao mundo de exatas.

Fonte: Consumidor Moderno

A Importância do Big Data na prospecção de clientes

Com o mundo em constante transformação, é preciso estar atento às novas possibilidades para se aproximar dos seus públicos de interesse. Principalmente, porque estamos falando de um mercado cada vez mais competitivo onde o diferencial se encontra nos pequenos detalhes.

Isso fica mais complicado se levarmos em consideração a área de comunicação, onde as agências e gestores de marketing têm que buscar sempre novas formas para captar novas contas. Até porque, que hoje em dia não basta escolher um cliente aleatoriamente, é importante que ele tenha fit com a sua expertise e que exista sinergia entre as marcas envolvidas. Nesse caso, uma plataforma de big data é fundamental.

É claro que não basta só captar todas essas informações, pois a grande sacada é saber analisá-las e decidir o que fazer a partir delas. Esse, na verdade, é o “pulo do gato” quando falamos em big data. As plataformas captam grande volume de dados e se não soubermos trabalhar com eles a consequência pode ser negativa. O maior desafio é aplicá-los pensando sempre em quais são os mais adequados para o contexto e as demandas. Afinal, só uma boa análise é capaz de gerar um conteúdo mais rico que atenda as expectativas dos clientes.

Uma reflexão importante que temos que fazer quando estamos prospectando um cliente é que conquistar novos pode custar sete vezes mais caro do que manter os já existentes, como um dos maiores especialistas em marketing, Philip Kotler, já afirmou, além de tomar muito tempo e energia. Sendo assim, é importante acertar o alvo de primeira. Para isso, é preciso estar a par de quem quer impactar e qual a melhor maneira de fazê-lo. Nesse sentido, a análise de dados pode contribuir e oferecer insights relevantes, tornando a proposta mais rica e criativa com as informações que a plataforma permite captar.

Uma boa ferramenta de Web Analytics pode gerar grande volume de dados que facilitem a tomada de decisão. Dessa maneira, fica mais fácil identificar o que seu cliente em potencial precisa, no momento certo e com a aproximação correta. Até porque, assim como o mundo, os consumidores podem apresentar mudanças muito velozes de comportamento devido à sua capacidade de se adaptar às novidades que o mercado oferece. Com isso, picos, quedas e curvas de crescimento são cada vez mais comuns nos gráficos de vendas das empresas.

Em linhas gerais, podemos concluir que muitas empresas já se deram conta que ter dados é essencial para os negócios e têm procurado por soluções e caminhos para fazer o melhor uso de toda essa onda de informação. Afinal “em terra de cego, quem tem olho é rei”, e é imprescindível ter diferenciais para estar sempre à frente.

*Eduardo Prange é CEO da Zeeng – Data Driven Platform, e atua com Marketing Digital há mais de doze anos, com participação em mais de cem projetos relacionados ao tema.

Fonte: ADNEWS

O sucesso da inteligência de negócios está na governança de dados

As empresas estão adotando estratégias de Governança de Dados para garantir que investimentos em transformação digital sejam efetivos

Cada vez mais, as empresas estão adotando estratégias de Governança de Dados para garantir que investimentos em transformação digital sejam efetivos. Isso porque, de acordo com a reportagem publicada pela Forbes Insights, Operações, Vendas e Gestão são as três principais áreas nas companhias que impulsionaram a adoção de Business Inteligence (BI) em 2018.

A aposta em Governança surge para atender a agilidade que o mercado precisa, sem perder a segurança da informação e a precisão da análise. Em 2016, a própria Forbes, no levantamento “Breakthrough Business Intelligence: How Stronger Governance Becomes a Force for Enablement”², apontou que as organizações já sentiam o impacto da ausência de uma gestão mais adequada de dados. Nesse cenário, deixavam de aproveitar o potencial gerado por Inteligência Artificial (AI), Big Data, Analytics e BI.

Governança de dados e geração de valor

Sem me alongar demais ou simplificar de menos, podemos dizer que a Governança de Dados define o plano para o gerenciamento de ativos de informação de uma organização que se propõe ser orientada por eles. O valor de uma ação nada simples como essa é que torna a leitura de dados acessível para quem está no negócio e derruba barreiras ocupadas por conhecimentos técnicos. O CIO passa a participar de discussões mais amplas em uma empresa. E a tomada de decisão a partir de dados fica mais rápida e segura.

Ainda segundo o estudo publicado na Forbes, tomar decisões melhores, conquistar eficiência operacional, aumentar as receitas e a vantagem competitiva são os quatro principais objetivos das organizações que utilizam BI atualmente. No mundo dos negócios, estamos falando de tempo e a Governança costuma ser adotada para melhor orquestrar informações que forneçam insumo para utilizar a inteligência aplicada nela.

Usuários capacitados

Para sobreviver, toda empresa precisa ser geradora de dados e, nesse contexto, ter usuários capacitados, com acesso a fontes limpas e consistentes de informação, é extremamente relevante. Para uma empresa orientada por dados funcionar e atender a todos os níveis de acesso necessários, a Governança deve prover soluções que interajam com flexibilidade.

O objetivo é que a sensação de perder oportunidades na ausência de insights apropriados para os negócios, diminua e caminhe para zero. A soma da Governança a outras ferramentas, como Big Data, IA, BI, deve fornecer inteligência instantânea e segura quando os usuários precisarem.

Só conseguimos extrair valor dos dados se eles são acessíveis, precisos e confiáveis. Nessa nova onda, não podemos contar com dados medianos para tomar decisões de negócio e apostar na transformação digital. Hoje, IA, big data, BI, entre tantas outras inteligências aplicadas, demandam governança, proteção e monitoramentos contínuos. A vantagem diante da concorrência só existirá se as informações que alimentam pipelines de negócios estiverem reunindo o que é, de fato, relevante para os negócios. Estamos em um caminho sem volta, uma vez que os volumes de dados e a complexidade aumentam.

Fonte: Olhar Digital

Tomador de decisão, influenciador de opinião e o comprador: Como entender a jornada do consumo pode fazer o marketing digital impulsionar o mercado B2B

Com um mercado cada vez mais competitivo, tem se tornado um desafio para empresas com foco em B2B divulgar os seus produtos, apesar de ainda existir um espaço muito grande para crescer por meio de estratégias de marketing digital. São inúmeras possibilidades por meio de novas segmentações, canais e formatos para utilizar este tipo de plano.

O desafio das estratégias de marketing digital para as empresas que visam negócios B2B é saber distinguir o tomador de decisão, influenciador de opinião e o comprador. “Por exemplo, se a estratégia estiver focada no comprador, mas ele não é o tomador de decisão, a chance dessa iniciativa fracassar é enorme. Após a diferenciação entre os profissionais, chega o momento de saber impactá-los nos diversos horários, seja durante o trabalho ou lazer”, destaca Douglas Ribeiro, Operations Manager da GhFly, é uma agência referência em marketing digital e líder em performance.

Para Diego Carmona, CVO da leadlovers, plataforma de automação de marketing digital, identificando que a responsabilidade e a relação em negócios B2B, é um pouco diferente das negociações B2C, principalmente quando se trata de público, é evidente que a estratégia muda ”Claro que sem deixar de lado o fato de que são pessoas do outro lado, mas levando em consideração que o peso na mão da pessoa que negocia é maior por afetar a instituição inteira”, diz Carmona.

Também é importante levar em consideração que por ser uma venda mais complexa, o público costuma ser mais exigente, seletivo, high touch e fiel. “Eles não compram por impulso, logo, exigem uma negociação muito pautada pela racionalidade e pela clareza de todos os pontos”, afirma Taynar Costa Marketing Coordinator da DIWE, primeira agência de profound marketing do país.

Outro ponto, é que jornada de compra no B2B é, geralmente, mais longa, muito pautada pela racionalidade e negociação e passa por diversas etapas, como análises da necessidade do produto, orçamento disponível e necessidade do investimento. “Nesse sentido, as ações devem ser mais direcionadas, segmentadas e com cadências mais frequentes e objetivas. É preciso ter um entendimento maior sobre o setor em que o negócio está inserido, bem como as necessidades de médio e longo prazo, se pensarmos na necessidade de se tornar um parceiro estratégico” finaliza Taynar.

Para compreender a melhor maneira de se comunicar com o seus públicos de interesse e elaborar um planejamento mais assertivo é importante fazer uma análise de mercado. Nesse sentido uma ferramenta de Big Data Analytics é imprescindível. “Adotar o uso desse tipo de plataforma é fundamental. Com elas é possível trazer dados de inteligência competitiva e fortalecer as decisões dos gestores de comunicação e marketing, desde a etapa do planejamento até a mensuração de dados”,afirma Eduardo Prange, CEO da Zeeng primeira plataforma de big data analytics voltada para o setor de marketing e comunicação. “Quem não utiliza esse tipo de ferramenta acaba tendo mais dificuldade operacional para conseguir informações, mesmo que seja da sua própria empresa, já que o objetivo desse tipo de plataforma é complementar informações que as organizações têm de si, com os elementos do mercado em que atua”, finaliza Prange.

Vale ressaltar que a conexão emocional com marcas B2B é superior ao B2C, conforme revela o Google e Motista. Isso indica que a fidelidade e confiança tendem a ser maior, logo é muito importante ter uma estratégia adequada não somente durante a aquisição de novos clientes, mas na manutenção deles.

Fonte: Ecommercenews 

GARTNER IDENTIFICA CINCO MITOS SOBRE O USO DE INTELIGÊNCIA ARTIFICIAL NAS EMPRESAS

Os líderes de TI e de negócios geralmente ficam confusos sobre o que a Inteligência Artificial (IA) pode fazer por suas organizações e são frequentemente desafiados por falsas ideias sobre como aplicar os conceitos dessa tecnologia em suas organizações. O Gartner Inc., líder mundial em pesquisa e aconselhamento para empresas, avalia que os gestores de TI e negócios que desenvolvem projetos de inteligência artificial devem separar a realidade dos mitos para elaborar suas estratégias de inovação para o futuro.

“Com a tecnologia de IA ​​entrando nas companhias, é crucial que os líderes de negócios e de TI compreendam completamente como as soluções inteligentes podem criar valor para seus negócios e onde estão suas limitações”, diz Alexander Linden, Vice-Presidente de pesquisa do Gartner. “As tecnologias de Inteligência Artificial só podem gerar valor se fizerem parte da estratégia da organização e forem usadas da maneira correta”.

Para evitar concepções erradas, o Gartner anuncia cinco mitos sobre o uso da Inteligência Artificial:

Mito 1: A Inteligência Artificial funciona da mesma maneira que o cérebro humano

A Inteligência Artificial é uma disciplina de engenharia da computação. Em seu estado atual, consiste em ferramentas de software destinadas a resolver problemas. Embora algumas formas de IA sejam altamente capacitadas e habilidosas, seria impossível pensar que as aplicações inteligentes atuais são semelhantes ou equivalentes à inteligência humana.

“Algumas formas de aprendizado de máquina (ML – de Machine Learning, em inglês), que é uma categoria de inteligência artificial, podem ter sido inspiradas pelo cérebro humano, mas não são equivalentes”, afirma Linden. “A tecnologia de reconhecimento de imagem, por exemplo, é mais precisa do que a maioria dos humanos, mas não é útil quando se trata de resolver um problema de matemática. A regra com a Inteligência Artificial, hoje, é que ela resolve uma tarefa extremamente bem, mas, se as condições da tarefa mudarem um pouco, essa tecnologia falhará”.

Mito 2: Máquinas inteligentes aprendem por conta própria

A intervenção humana é necessária para desenvolver uma máquina ou um sistema baseado em Inteligência Artificial. O envolvimento pode vir de experientes cientistas de dados humanos, que são imprescindíveis para executar tarefas como definir e enquadrar quais são as questões a serem executadas, preparar os dados, determinar conjuntos de informações apropriados para a análise, remover possíveis erros (ver mito 3) e – o mais importante – para atualizar continuamente o software, permitindo a integração de novos conhecimentos e de aprendizagem para o próximo ciclo de inovação presente nas máquinas.

Mito 3: Inteligência Artificial pode ser livre de preconceito

Toda tecnologia de Inteligência Artificial é baseada em dados, regras e outros tipos de informações fornecidas por especialistas humanos. Semelhante aos humanos, as aplicações inteligentes também são intrinsecamente enviesadas por uma forma ou outra de análise.

“Hoje, não há como banir completamente o preconceito, no entanto, temos que tentar reduzi-lo ao mínimo”, diz Linden. “Além de soluções tecnológicas, como diversos conjuntos de dados, também é crucial garantir a diversidade nas equipes que trabalham com a Inteligência Artificial e fazer com que os membros da equipe revisem o trabalho uns dos outros. Esse processo simples pode reduzir significativamente o viés de seleção e confirmação”.

Mito 4: A Inteligência Artificial só substituirá trabalhos repetitivos e que não exigem graus avançados

A Inteligência Artificial permite que as empresas tomem decisões mais precisas por meio de previsões, classificações e agrupamentos da análise de dados. Essas habilidades das soluções baseadas em IA permitiram que as empresas reduzissem as demandas acerca das tarefas mais comuns, mas, por outro lado, também aumentaram a complexidade das tarefas remanescentes. Um exemplo é o uso de Inteligência Artificial na avaliação de imagens na área da saúde. Uma radiografia de tórax baseada em IA pode detectar doenças mais rapidamente que radiologistas. No setor financeiro e de seguros, robôs estão sendo usados ​​para o gerenciamento de rendas ou detecção de fraudes. Essas capacidades não eliminam o envolvimento humano nessas tarefas, mas permitem que os humanos lidem apenas com os casos incomuns ou mais específicos. Com o avanço da Inteligência Artificial ​​no local de trabalho, os líderes de negócios e de TI devem ajustar os perfis de trabalho e o planejamento das habilidades de suas equipes, além de oferecer opções de certificações e reciclagem de conhecimento para os profissionais já presentes na companhia.

Mito 5: Nem todas as empresas precisam de uma estratégia de Inteligência Artificial

Todas as organizações devem considerar o impacto potencial das soluções de Inteligência Artificial ​​em suas estratégias e investigar como essa tecnologia pode ser aplicada às demandas de suas operações. Evitar a exploração da Inteligência Artificial é o mesmo que abandonar a próxima fase da automação, o que, em última análise, poderia colocar as companhias em desvantagem competitiva.

“Mesmo que a estratégia atual de uma empresa não utilize a Inteligência Artificial, é importante que os líderes de negócios dessa companhia avaliem esse tema para tomar uma decisão consciente, baseada em muita pesquisa e avaliação do cenário. E como em relação a qualquer outra estratégia, é sempre recomendável que as companhias revisitem periodicamente seus planos, alterando suas diretrizes e rumos de acordo com as necessidades da organização. As ferramentas de Inteligência Artificial podem ser necessárias mais cedo do que o esperado”, finaliza Linden.

Fonte: Digitalks

Big Data ou Small Data? Entenda as diferenças e saiba como usar cada um

gerenciamento de dados nunca foi tão importante quanto é hoje. Não à toa, o Big Data nasceu da necessidade cada vez maior em conseguir lidar com a grande quantidade de informações gerada a partir dos processos cotidianos de uma empresa.

Baseando-se em três princípios: volume, velocidade e variedade, o objetivo é armazenar e analisar estes dados, sendo possível, por exemplo, organizar relatórios que mostrem os comportamentos, preferências e necessidades dos clientes.

Hoje é fundamental contar com soluções de Big Data para garantir o sucesso contínuo da empresa, pois, apenas ele é capaz de lidar com tanta rapidez e eficiência com a quantidade gigantesca de dados que as companhias geram e salvam atualmente.

Já o Small Data vem ganhando protagonismo no mercado nos últimos tempos graças às expectativas e necessidades dos clientes que querem personalização e um atendimento diferenciado, o que incentiva as organizações a buscarem maneiras inovadoras de trazer algo único para seu público-alvo.

A ferramenta analisa os dados de forma qualitativa, enquanto o Big Data faz isso quantitativamente. Além disso, ainda possibilita a análise de detalhes e opiniões sobre a experiência do cliente, seus desejos e necessidades, permitindo insights e decisões que, talvez, o Big Data não pudesse proporcionar. O resultado é maior conhecimento para entregar ao cliente a melhor experiência possível e produtos desenhados exatamente de acordo com o que ele deseja.

Para entender como o Big Data e o Small Data podem ser vantajosos para o seu negócio, a seguir, listo as principais diferenças entre essas tecnologias e como elas podem gerar resultados para a sua marca:

Condições dos dados

Como o Big Data lida com uma grande quantidade de informações, estas ficam armazenadas de forma não-estruturada, exigindo um trabalho minucioso de agregação e de interpretação para que possam ser analisadas. Enquanto isso, o Small Data atua com um volume menor, o que faz com que os dados dessa ferramenta estejam prontos para análise sempre que necessário.

Localização

O Big Data opera com todas as informações da organização, colhendo-as a partir dos sistemas na nuvem, do SQL Server, dos bancos de dados, dos PCs da empresa, entre outros lugares nas quais são geradas. Já o Small Data costuma trabalhar apenas com elementos vindos dos PCs, dos CRMs, de pesquisas e das redes sociais. A partir desses meios, é possível ter acesso direto às opiniões, hábitos, dúvidas, reclamações e necessidades dos clientes.

Tamanho e complexidade

A medida que o Big Data atua com medidas como terabyte e petabyte, o Small Data — que, lembre-se, recolhe dados de poucas fontes — lida com quantidades que, além de pequenas, também são consideravelmente mais simples. Uma única venda já é capaz de gerar subsídios muito importantes para o Small Data.

Importância e utilidade

Ao contrário do que algumas pessoas pensam, o Small Data não chegou para substituir o Big Data. A mineração e a análise de dados continuam tendo uma importância crescente dentro das companhias, que nunca geraram tantas informações digitais como hoje.

Com isso, é possível perceber que ambas são tecnologias complementares. Elas solucionam diferentes necessidades das empresas, possibilitando melhores resultados, decisões mais embasadas e eficientes, além de um crescimento contínuo das organizações.

*Alexandre Glikas é diretor-geral da Locaweb Corp, unidade corporativa da Locaweb

Fonte: Computer World

Como a Lei Geral de Proteção de Dados impacta na experiência do seu cliente?

Após longos debates com a sociedade civil, que levaram quase nove anos, a Lei Geral de Proteção de Dados, mais conhecida pela sigla LGPD, foi promulgada em agosto de 2018, cuja eficácia plena se dará em agosto de 2020. Baseada em sua “irmã mais velha”, a europeia GDPR – General Data Protection Regulation – vai de encontro a uma tendência já apontada pelo Gartner em 2017, na sua pesquisa anual Iconoculture Values and Lifestyle.
Esta pesquisa já apontava, na época, o que a privacidade, representada por fatores como segurança e serenidade, passava a prevalecer sobre a conveniência como preocupação ou experiência desejada por consumidores em todo o mundo. Este resultado, de certa maneira, surpreende os especialistas, já que, durante a última década, a tendência sempre foi acumular informações sobre o cliente para surpreende-lo com ofertas e serviços personalizados. Com isso, imaginaram eles, fidelizariam e encantariam seus clientes.
Na esteira deste pensamento, tecnologias emergentes vieram para facilitar e tornar viável não só a coleta e armazenamento destas informações, mas, principalmente, seu uso efetivo para atrair e reter clientes. Enquanto isso, as fontes de informação passaram daquelas disponíveis somente nas bases de dados das próprias empresas para a infinidade e abrangência das informações que transitam nas redes sociais e blogs. Big datamachine learning e, finalmente, a inteligência artificial passam a ser a ordem do dia para utilizar ao máximo toda essa informação e melhorar a experiência do cliente.
Neste fim de década, as empresas enfrentam agora um desafio: o cliente passa a exigir a privacidade no tratamento de suas informações. Não aceitam mais a troca delas por conveniência. Querem a garantia de que será cuidada e protegida. Mais do que isso, querem saber o que fazem com ela. O direito à privacidade e à segurança de suas informações é um tema quente. Não tenham dúvidas disso.
Uma frase que li outro dia na internet, “se você dá sua confiança a alguém que não a merece, estará concedendo-lhe, na verdade, o poder de destruí-lo” talvez mostre porque a questão da privacidade se tornou tão importante. Se você fornece suas informações a empresas ou instituições que não são capazes de protegê-las em troca de conveniência, benefícios de uma oferta boa, ou um produto interessante, estará correndo o risco de ter sua vida virada de ponta a cabeça. Seja em um mau uso, vazamento de dados ou outro incidente causado pelo desleixo ou falta de preocupação com o assunto. É isso que a pesquisa do Gartner parece ter concluído.
Assim, minha recomendação às empresas é que entendam a lei, não como um estorvo ou motivo para tirar dinheiro, mas como uma oportunidade de criar condições para proteger as informações de seus clientes, ganhar sua confiança e usufruir de todo o poder que ela trará em termos dos benefícios do seu uso consistente.
Ao confiar que seu potencial fornecedor protege suas informações, potenciais consumidores e clientes entregarão um poder a sua empresa para lhe vender cada vez mais. E este poder, acreditem, será um diferencial importante daqui para a frente. Entender o uso da LGPD como uma ferramenta para melhorar a experiência do seu cliente nestes aspectos pode ser uma boa ideia. Vale uma reflexão.
Fonte: Digitalks

COMO EVITAR AS ARMADILHAS DA PERSONALIZAÇÃO

Na era da hiper-personalização é possível direcionar a publicidade para consumidores específicos com base em um número quase infinito de dados, desde idade e renda até a localização e interesses. Hoje, o targeting de anúncios para segmentos específicos de público com o objetivo de maximizar o sucesso de uma campanha virou lei. É uma abordagem que funciona: de acordo com uma pesquisa global da Reuters, 63% dos consumidores dizem que conteúdos pessoalmente relevantes melhoram sua percepção com relação à marca.

Mas, acertar no targeting é muito mais do que simplesmente selecionar alguns fatores para fazer a personalização. Se não tiver cuidado, publicitários acabam correndo o risco de criar uma cultura da exclusividade, restringindo o alcance e perdendo novos clientes potenciais. É muito comum ver consumidores bombardeados por anúncios repetidos de uma determinada marca ou produto porque seu comportamento de navegação os classificaram em um segmento específico de público.

Um exemplo: após procurarem por itens para recém-nascidos, mães muitas vezes passam a receber apenas anúncios digitais de fraldas, roupas para crianças e produtos infantis. Ou seja, embora continuem tendo os mesmos interesses únicos e diversificados de antes de seus filhos nascerem, elas não veem mais anúncios relacionados a essas atividades, pois foram fixadas no segmento de mães de bebês recém-nascidos.

Este targeting descuidado faz com que os consumidores se sintam incomodados e excluídos, que não recebem mais nada de novo ou inspirador e só encontram os mesmos produtos e marcas que já conhecem de suas próprias pesquisas feitas anteriormente. Do mesmo modo, outros clientes potenciais acabam perdendo experiências relevantes e bem-vindas com a marca porque não demonstraram o comportamento de navegação específico que os colocaria naquela categoria.

Sem a menor dúvida, o targeting e a personalização continuam sendo táticas valiosas no repertório dos publicitários, mas devem ser utilizados com muito cuidado para evitar o ostracismo de públicos e a limitação do alcance. Pensando nisso, conheça a seguir três modos importantes de evitar as armadilhas da personalização:

 Os dados são tudo

Um targeting e uma personalização eficientes exigem grandes quantidades de dados originados de fontes diversificadas.Em vez de confiar demais em apenas um tipo de dado, por exemplo, no histórico de navegação, as marcas devem mesclar vários fluxos de dados contextuais, comportamentais, transacionais e demográficos para compreender de verdade o usuário.

Elas também devem se assegurar de que os dados utilizados são atuais e atualizados com frequência, uma vez que os interesses e as prioridades dos consumidores mudam com rapidez. Por exemplo, um consumidor que no ano passado planejou as férias de luxo dos seus sonhos nas Ilhas Maldivas pode este ano estar mais interessado em uns dias de descanso de última hora em uma cidade da região. Sem dados em tempo real, as empresas de turismo vão acabar perdendo dinheiro, segmentando o foco nesse consumidor com mensagens irrelevantes e ultrapassadas.

 

Quebre as regras

Para processar as grandes quantidades de dados necessárias para tomar decisões de targeting, muitos publicitários já utilizam um recurso de inteligência artificial conhecido como machine learning (ML). No entanto, os algoritmos convencionais baseados em regras do machine learning contribuem para as armadilhas da personalização, pois categorizam os consumidores com base em ações ou informações determinadas. Quando focamos em pessoas reais, a tomada de decisões baseada em regras provavelmente não será muito eficiente. Por isso, em vez de se apoiar no machine learning tradicional, as marcas devem levar em consideração o reinforcement learning (RL). Este tipo de aprendizado aprofundado permite uma tomada de decisões mais adaptável, permitindo a escolha da melhor ação dentro de um contexto específico, ao utilizar recompensas positivas e negativas.

reinforcement learning permite que as marcas ofereçam mensagens que se alinhem às necessidades únicas do usuário, em vez de no segmento mais amplo do público. Além disso, elas podem aprender com a experiência, aumentando continuamente o impacto e a ressonância das mensagens para obter um retorno maior. Em vez de sobrecarregar os consumidores com anúncios para produtos pelos quais ele já exprimiram interesse, é possível prever o que pode ter valor para eles enquanto indivíduos, com base na experiência, apresento produtos ou serviços novos ou empolgantes.

 Imponha um limite

Mesmo quando os dados são diversificados e as previsões são perfeitas, os consumidores não gostam de ver o mesmo anúncio inúmeras vezes. Aquele lindo sofá em couro pode ser perfeito para a casa nova, mas depois de vê-lo 50 vezes em feeds do Facebook, em um aplicativo móvel de jogo e no topo de um site de notícias locais, os consumidores podem se irritar e, com toda a razão, decidirem não comprá-lo.

Para evitar sobrecarregar os consumidores com anúncios repetidos ou muito semelhantes, os publicitários devem implementar limites de frequência que permitam expor um anúncio uma quantidade de vezes suficiente para a conscientização e fixação do produto, mas sem chegar ao excesso. Os limites de frequência devem estar ativos em todos os canais e dispositivos, especialmente porque a previsão é de que os dispositivos móveis sejam responsáveis por mais de dois terços dos gastos com anúncios digitais no ano que vem. Os limites de frequência não só evitam que os consumidores se irritem com a publicidade, mas também permitem que, ao serem atingidos, as marcas passem seus anúncios para novos consumidores, aumentando, assim, o seu alcance.

personalização e o targeting são táticas incrivelmente positivas na publicidade digital, oferecendo mensagens relevantes e envolventes que geram resultados reais. Ao utilizarem uma ampla gama de fontes de dados em tempo real, ao empregarem algoritmos de aprendizado profundo fundamentados na experiência, em vez de em regras, e ao implementarem limites de frequência para evitar o bombardeamento de anúncios repetidos, os publicitários podem escapar das armadilhas da personalização e otimizar suas campanhas para obter o máximo retorno.

Fonte: Digitalks

TI deve crescer 10% em 2019 no Brasil. Saiba onde estarão os investimentos

O mercado de TI no Brasil deve crescer 10,5% neste ano, na comparação com 2018, segundo previsão da IDC, que prevê um forte impacto positivo sobretudo do segmento de dispositivos. Quando somado ao setor de Telecom, que deve ter retração de 0,3%, o mercado de TIC (Tecnologias da informação e comunicação) brasileiro terá avanço de 4,9%.

“O mercado de TI está otimista. Tanto fabricantes quanto consumidores estão sinalizando uma melhora e estamos projetando esses números com base nisso”, apontou Pietro Delai, gerente de pesquisas da IDC, nesta terça-feira (2/5) durante apresentação dos resultados.

Delai ressalta que os números de 2018 ainda não foram fechados, mas a previsão de crescimento no ano passado era de 2,2% – o que evidencia o cenário positivo do mercado para 2019. “O Brasil está levemente acima da média da América Latina. Em relação ao mundo, o avanço é bem parecido”, afirmou.

A tendência, segundo o estudo da consultoria, é de que as empresas brasileiras avancem para alcançar uma TI flexível, não apenas do ponto de vista de operação, mas também nos custos. “Serviços de TI estão cada vez mais presentes por conta da agilidade e falta de recursos dentro de casa”, adicionou Delai.

Alguns dos principais investimentos estarão em itens como cloud pública, internet das coisas (IoT) e inteligência artificial. Confira as principais tendências:

Segurança da informação

Luciano Ramos, coordenador de pesquisas de software na IDC, lembrou que, desde 2017, com o ataque em massa WannaCry, o tema segurança da informação virou pauta presente nas organizações. “Sabemos que o WannaCry chegou ao Brasil. Isso mostra que não está só no vizinho e pode acontecer a qualquer momento”, pontuou. “O WannaCry não derrubou a TI, ele derrubou empresas. Isso trouxe grande impacto.”

Com o assunto ganhando relevância, soluções de próxima geração (NextGen) ganharão ainda mais importância, recorrendo a recursos como inteligência artificial e machine learning para combater ataques complexos.

Em 2019, essas soluções de próxima geração atingirão US$ 671 milhões no Brasil, crescimento 2,5 vezes mais rápido do que produtos considerados tradicionais. Ainda, os gastos com Managed Security Services (Serviços Gerenciados de Segurança) ultrapassarão os US$ 548 milhões, acirrando a competição entre provedores “puros” e operadoras de telecomunicações, que estão enxergando oportunidades neste mercado.

Inteligência artificial

A projeção da IDC global para inteligência artificial é de um crescimento anual (CAGR) de 46,2%, chegando a US$ 52 bilhões em 2021. Ainda segundo a consultoria, em 2022, 22% das corporações usarão tecnologias de fala para interação com clientes.

No Brasil, 15,3% das médias e grandes empresas têm AI entre as principais iniciativas e esperam que isto dobre nos próximos quatro anos.

Os principais casos de uso destacados pelos especialistas são agentes automáticos de atendimento, análise e investigação de fraudes, automação de TI, bem como diagnóstico e tratamentos de doenças.

Big data e Analytics

O momento do mercado de big data e Analytics ainda é de crescimento, podendo chegar a US$ 4,2 bilhões em 2019. Mas Ramos pondera que o avanço não tem sido no ritmo que a consultoria vinha estimando nos últimos anos. “Acreditávamos que as empresas teriam potencial para mais”, disse.

Ele comenta que existe uma clara dificuldade de entendimento das tecnologias de gestão de dados. Inclusive, um estudo com 122 empresas de médio e grande portes mostrou que 3/4 dos entrevistados não conheciam in-memory computing ou não têm interesse no tema. “In-memory computing é fator importante para Analytics avançado”, ressaltou.

Ainda, apenas 13,8% das empresas têm como prioridade de negócios expandir sua capacidade de triar proveito de dados para criar ou potencializar novas fontes de receitas. “Nossa expectativa para esse ano, diferentemente de anos anteriores, não é de crescimento de dois dígitos. Mas ainda assim é acima da média do mercado de software e serviços”, explicou Ramos.

Cloud pública

Delai explica que cloud pública é um mercado que demorou para engrenar no Brasil. Prova disso é que somos o sexto maior mercado de TIC no mundo, mas apenas o 14º em uso de cloud pública. “Isso mostra claramente como começamos mais tarde. Mas isso faz com que tenhamos um ritmo insano”, disse.

Esse ritmo insano, como define o especialista, levará o mercado de cloud pública a um crescimento acelerado de 35,5% no Brasil, chegando a US$ 2,3 bilhões. Ainda, a previsão é chegar a US$ 5,8 bilhões até 2022.

“O mercado já enxerga multicloud como caminho, embora os entendimentos de todos os ‘sabores’ de cloud ainda não esteja na ponta da língua dos gestores”, comentou Delai.

Internet das coisas

Mesmo sem direcionamentos em relação ao Plano Nacional de IoT, que ainda não foi aprovado pela Presidência da República, o mercado de internet das coisas (IoT) seguirá avançando de forma exponencial no país.

Delai comenta que, de fato, empresas brasileiras estão fazendo mais do que falando de IoT. “É algo que já está acontecendo e evoluindo. São diversos projetos já realizados”, comentou.

Globalmente, IoT deve reunir US$ 745 bilhões em investimentos em 2019 e, até 2022, chegará a marca de US$ 1 trilhão, alavancando principalmente os setores de Manufatura e Consumo.

No Brasil, 44,7% dos gestores reconhecem ao menos um projeto de IoT implementado, o que mostra que IoT é aqui e agora.

Arquiteturas modernas e DevOps

O estudo aponta que os benefícios da nuvem para o desenvolvimento de soluções de software já são evidentes para as empresas. Contudo, ainda predominam os projetos em arquiteturas tradicionais – mesmo que boa parte desses já rodam em IaaS (Infraestrutura como serviço).

 A expectativa é de aceleração de arquiteturas Cloud-Related com maior uso de containers e serverless computing, puxados principalmente pelos provedores de soluções sob medida.

Atualmente, apenas um em cada três soluções (seja um novo desenvolvimento ou uma sustentação) já é pronta para nuvem. É esperado que este patamar avance 40% até o fim deste ano.

O mercado de PaaS (Plataforma como serviço) deve atingir US$ 425 milhões em 2019 no Brasil, crescimento de 35,7% em relação ao último ano.

Dispositivos

O mercado de dispositivos será o grande destaque dos investimentos de TI para este. Segundo a IDC, ele representará 38% de todo investimento em 2019, ou seja, cerca de US$ 24,5 bilhões.

O crescimento não será em unidades, mas sim em valor – sendo alta de 18% nos preços de smartphones e 7% em PCs e tablets. As vendas B2B representam 10% deste mercado.

SD-WAN

Para André Loureiro, gerente de pesquisas da IDC, 2019 será o ano da consolidação da SD-WAN no mercado brasileiro – que ainda apresenta baixa maturidade em termos de adoção.

Fonte: ComputerWorld