O que são métricas de um site

Os mecanismos de busca seguem um padrão para definir quem vai ser melhor posicionado, estes padrões podem ser chamados de métricas.

Existem várias métricas que definem seu projeto, nesse post, iremos tratar de apenas 5, são elas:

CF – Citation Flow;

TF – Trust Flow;

TR – Trust Ratio;

DA – Domain Authority;

PA – Page Authority.

Usaremos 2 ferramentas para analisar as métricas:

Majestic – Para verificar TF e CF;

MOZ Bar – Para analisar DA e PA.

As importantes métricas Citation Flow e Trust Flow foram lançadas pela majestic em 2012.

Agora vamos conhecer cada uma das métricas já apresentadas:

CITATION FLOW

O Citation Flow é o numero que indica as referências apontadas para seu site ou para a URL analisada. Ou seja, é a nota que o Majestic te dá em relação aos links que apontam para você

Por exemplo: No seu projeto, tem cerca de 100 sites apontando para ele, então com base nesses apontamentos, o majestic te dá uma nota, essa nota se chama: Citation Flow (CF).

TRUST FLOW

O Trust Flow mede a QUALIDADE dos backlinks que seu site recebe, ou seja, quanto mais backlinks você receber de um site com boa autoridade (DA), melhor sera sua métrica de Trust Flow.

Por exemplo: Você está recebendo 100 backlinks de 100 sites diferentes, isto é, 1 backlink por site, e estes 100 sites tem uma boa autoridade na internet, boas métricas, etc, então seu Trust Flow aumentará. Resumindo, seu site será confiante para poder passar trust flow para outros sites, interessante né? ;D

Ah – um pequeno detalhe – também é possível que um Trust Flow seja maior que um Citation Flow, isso quer dizer que os links que apontam para o site analisado vem de poucos sites de muita autoridade.

TRUST RATIO

Trust flow/Citation Flow = Trust Ratio

Essa matemática funciona muito bem, devido a certos parâmetros, Exemplo:

Imagine que o CF seja muito alto (100) e o TF super baixo (5), isso quer dizer que o projeto esta recebendo muitos backlinks ou links juice de um projeto que não tem tanta qualidade, ou quase nada de qualidade. Não adianta você ter vários sites apontando para seu projeto, sendo que eles não tem autoridade e qualidade nenhuma.

Em geral, quando isso acontece e porque possivelmente é um site de ‘spam’ apontando para o seu ou um site sem autoridade e de pouquíssima confiança para os buscadores.

O valor de um bom Trust Ratio é aproximado de 1. Claro, 2 seria melhor ainda…

Por exemplo: Se você tiver um projeto que o CF seja 11 e o TF de 15, aplicando a formula o resultado seria = 15/11=1,36, que é um excelente resultado… ;D

DA – DOMAIN AUTHORITY

O que é domain authority – “Domínio de Autoridade” é uma métrica criada pela empresa MOZ, serve para analisar a autoridade que tal domínio exerce na internet, vários fatores influenciam nessas métricas

PA – PAGE AUTHORITY

O que é page authority – “Pagina de Autoridade” também é uma métrica criada pela empresa MOZ, serve para analisar a autoridade de uma pagina.Você pode ter varias paginas no seu site, porem, nem todas tem a mesma autoridade, tanto é que algumas os motores de buscam indexam mais rápido e posicionam melhor, enquanto outras demoram muito e o posicionamento não e tão bom.

Fonte: Administradores

 

5 etapas para o sucesso de uma estratégia de Data & Analytic

O Gartner avalia que, com o avanço das demandas por Data & Analytics dentro das empresas, os chamados Chief Data Officers (CDOs) estão sendo cada vez mais responsáveis por uma ampla agenda que abrange as iniciativas de gerenciamento, análise e ciência de dados, além de ética e transformação digital.

Conforme a consultoria, esses especialistas precisam estar preparados para liderarem a transformação baseada em dados de suas organizações. Mas como os novos CDOs que estão assumindo essa posição desafiadora podem ter sucesso em suas jornadas?

Os primeiros 100 dias constituem um período de “lua de mel”, aponta o Gartner, perído em que os CDOs devem se estabelecer e criar percepções que os outros irão associar às suas ações subsequentes. Segundo a consultoria, cada fase inclui resultados-alvo, ações e recursos críticos, bem como algumas ideias opcionais a serem consideradas, conforme o tempo e os recursos permitirem.

De acordo com a Analista e Vice-Presidente da Consultoria, Debra Logan, preparar e comunicar um plano claramente dividido é fundamental neste processo. “Os profissionais precisarão criar planos detalhados e de alto nível para atividades-chave, com análises que incluam benchmarks e medições para mostrar o progresso e as realizações de suas iniciativas”, diz.

Confira abaixo uma lista com cinco etapas para o sucesso de uma estratégia de Data & Analytics, segundo a Gartner.

Preparar – Marque reuniões com sua equipe e com os principais líderes de negócios e de TI antes de participar e prepare um conjunto de materiais introdutórios sobre sua experiência. Se você é um veterano na empresa e passou para a função de CDO, revise sua experiência rapidamente. Demonstrar que você entende “como as coisas funcionam por aqui” é crucial.

Avaliar – Use reuniões face a face para construir uma forte compreensão do negócio e relacionamento com os principais interessados. Dedique pelo menos 50% do seu tempo a atender essas partes interessadas para explicar o papel do CDO e como você as ajudará a atingir seus objetivos críticos de negócios. Uma lista de não mais do que cinco perguntas ponderadas será mais valiosa do que tentar cobrir tudo. Preste muita atenção a pontos crônicos de dor e falhas anteriores e solicite ativamente o feedback sobre as percepções sobre as demandas direcionadas ao cargo de CDO e outras funções baseadas em dados. Também tente ter uma noção de como o CIO e a organização de TI são considerados no negócio.

Planejar – A fase de planejamento transforma as lições aprendidas das fases “preparar” e “avaliar” em um plano de ação. Compartilhe uma visão com sua equipe, gerentes de linha e as partes interessadas da empresa que você entrevistou. Apoie isso com uma avaliação de como a organização se compara à sua visão e descreva como você poderá desenvolver as operações e estruturas. Lembre-se de expressar esses objetivos em termos dos principais indicadores de desempenho de negócios (KPIs) que são importantes para as metas definidas por executivos e gerentes.

Agir – Reúna-se com suas equipes operacionais para definir seu escopo de operação e considere as métricas de desempenho. Pergunte o que você pode fazer para ajudá-los a ter sucesso. Realize uma reunião de status de gerenciamento sênior e desenvolva um cronograma trimestral. Estas serão algumas das reuniões mais valiosas que você tem. A equipe executiva determinará como integrar suas necessidades em sua estratégia e deverá deixar clara sua visão sobre o que constitui o sucesso. Isso lhe dará objetivos e estrutura claros para futuras reuniões. Mantenha a agenda simples: -O que você vai fazer durante este período? -Qual é o valor comercial das ações que você está planejando abordar? -Que valor comercial a equipe executiva gostaria que você entregasse durante o próximo período?

Mensurar – Você deve articular o valor comercial dos esforços de suas equipes de projeto, para que as reuniões regulares do relatório de progresso se concentrem nas informações mais relevantes para os líderes empresariais e financeiros.

10 principais certificações para se tornar um expert em ciência de dados

Uma pesquisa da Gallup para o Fórum de Negócios de Educação Superior mostra que, em 2021, 69% dos empregadores esperam dar preferência a candidatos com habilidades de análise e ciência de dados. No entanto, o mesmo relatório também revelou que apenas 23% das faculdades e universidades esperam formar alunos com essas habilidades nos próximos anos. Essa lacuna pode, eventualmente, fechar, mas levará tempo que as empresas não têm. Eles estão ansiosos para contratar agora para que possam capitalizar dados, com postagens para posições de ciência de dados, que devem chegar a 2,72 milhões em 2020.

Você não precisa se matricular em uma faculdade de quatro anos para aproveitar o mercado de habilidades em ciência de dados. Os programas de certificação podem ajudá-lo a conhecer os mais recentes conceitos, técnicas e ferramentas da ciência de dados. Outros programas são projetados para profissionais experientes que já têm conhecimento ou graduação, mas que querem ficar por dentro das tendências do setor.

Aqui estão dez programas de certificação de desenvolvimento profissional que podem ajudar a lançar ou impulsionar sua carreira em ciência de dados.

10 principais programas de certificação de ciência de dados

• Programa Avançado de Certificação em Ciências de Dados, Northwestern Professional Studies • Certificação de Big Data, UC San Diego Extension School • Certificação em Ciência de Dados, Georgetown University School of Continuing Studies • Certificação de Desempenho Profissional em Ciências de Dados, Columbia University • Programa de Certificação em Ciência de Dados, UC Berkeley Extension • Certificação de pós-graduação de Mineração de Dados e Aplicativos, Stanford Center for Professional Development • Ciência de Dados A-Z: Exercícios de Ciência de Dados da Vida Real, Udemy • Certificação de Ciência de Dados, Harvard Extension School • Programa de Certificação de Ciência de Dados, eCornell • Ciência de Dados para Executivos, Columbia University

Programa Avançado de Certificação em Ciências de Dados, Northwestern Professional Studies

O programa de certificação Advanced Data Science da escola Northwestern Professional Studies oferece cursos que vêm diretamente do mestre da ciência da escola no programa de Ciência de Dados. Estes incluem o gerenciamento analítico, análise e modelagem, engenharia de dados e inteligência artificial. Este é um curso projetado para aqueles que já têm um diploma de pós-graduação em ciência de dados ou um campo semelhante, e que querem se atualizar sobre novas tecnologias ou tendências do setor.

Pré-requisitos: um diploma de pós-graduação em ciência de dados, análise preditiva ou um campo similar. Complete dois cursos fundamentais através da Northwestern ou tenha conhecimento e habilidades equivalentes Taxa de matrícula: US$ 3.015 por curso Localização: on-line Duração: dois a quatro meses em média

Certificação de Big Data, UC San Diego Extension School

A Certificação de Big Data, oferecida pela UC San Diego’s Extension School, oferece cursos, workshops e campo de treino on-line e presencial. Os cursos enfocam a mineração de dados, analisando dados especiais com o GIS, criando modelos preditivos e usando algoritmos de aprendizado de máquina. Você pode optar por uma certificação de dados mais especializada com os certificados Mineração de Dados para Análise Avançada ou Métodos de Aprendizagem de Máquina. Outros incluem Programação Python, Análise de Business Intelligence e certificados de ciência de dados com foco em ferramentas e habilidades específicas, como SAS, R e TensorFlow.

Pré-requisitos: varia por certificação e curso Taxa de matrícula: US$ 4.735Localização: on-line Duração: pelo menos um ano; um ano e três meses é a média

Certificação em Ciência de Dados, Georgetown University School of Continuing Studies

O Certificado de Ciência de Dados da Georgetown ensinará tudo o que você precisa saber para coletar, limpar, modelar e apresentar dados. Os alunos usam a linguagem de programação Python e adquirem experiência prática na criação e apresentação de visualizações, modelos preditivos e análises, que o prepararão para trabalhar com dados em uma configuração comercial. No final deste programa, Georgetown diz que os alunos serão capazes de aplicar o pipeline da ciência de dados a fluxos de trabalho analíticos, usar práticas de programação eficazes, utilizar e consultar bancos de dados relacionais e NoSQL, encontrar perspectivas mais profundas em dados, criar modelos preditivos e criar visualizações efetivas.

Pré-requisitos: experiência básica de programação Taxa de matrícula: US$ 7.496 custo total estimado Localização: no campus Duração: oito cursos ao longo de seis meses

Certificação de Desempenho Profissional em Ciências de Dados, Columbia University

A Columbia University oferece uma certificação de desempenho profissional em ciências de dados, que é um programa de meio período sem graduação. No entanto, se você concluir este programa de certificação, os créditos podem ser aplicados a um mestre da ciência de Columbia. Os cursos enfocam os fundamentos da ciência de dados, incluindo algoritmos, probabilidade e estatística, análise exploratória de dados e visualização e aprendizado de máquina. Cada curso também tem seus próprios pré-requisitos em relação à habilidades de programação, matemática e ciências, por isso certifique-se de verificar se você tem o background certo para cada curso individual.

Pré-requisitos: curso de graduação, curso prévio de programação quantitativa e introdutória Taxa de matrícula: US$ 1.936 por créditoLocalização: on-line ou no campus Duração: 12 créditos; a maioria dos alunos conclui o programa dentro de um ano e deve ser completada dentro de cinco

Programa de Certificação em Ciência de Dados, UC Berkeley Extension

O Programa de Certificação em Ciência de Dados da UC Berkeley Extension requer um curso principal, um curso de programação, um curso de aprendizado de máquina e até quatro disciplinas eletivas. A UC Berkeley Extension promete ajudá-lo a “adquirir as habilidades necessárias para realizar discussões avançadas de dados, mineração de dados, modelagem estatística e aprendizado de máquina em conjuntos de dados, que podem ser muito grandes e complexos”. Os cursos cobrem os fundamentos da ciência de dados, programação em R e Python , análise de dados e computação científica, aprendizado de máquina com ferramentas como TensorFlow, Spark e R, entre outros assuntos.

Pré-requisitos: conhecimento de estatísticas do primeiro semestre de um curso de graduação ou superior; a capacidade de programar em pelo menos uma linguagem de programação de alto nível como Python, Java, Ruby, JavaScript, C ou C++ Taxa de matrícula: US$ 5.100 (custo estimado sem incluir materiais do curso ou taxas de inscrição) Localização: on-lineDuração: 10 unidades semestrais, cerca de 150 horas de instrução; deve ser concluído dentro de três anos

Certificação de pós-graduação de Mineração de Dados e Aplicativos, Stanford Center for Professional Development

O Stanford Center for Professional Development oferece um programa de certificação de pós-graduação de Mineração de Dados e Aplicativos. O programa de três cursos abrange o uso de métodos estatísticos para extrair significado de grandes conjuntos de dados, desenvolvimento e uso de modelos preditivos e análises, e como usar aplicativos estratégicos de tomada de decisão. É mais adequado para cientistas de dados, gerentes de estratégia, pesquisadores científicos, pesquisadores médicos, pesquisadores de ciências sociais, analistas de dados e consultores, e profissionais de publicidade e marketing.

Pré-requisitos: você precisará de um diploma de bacharel com um GPA de graduação de 3,5 ou mais e cursos introdutórios em estatística ou probabilidade, álgebra linear e programação de computadores Taxa de matrícula: US$ 11.340 – US$ 12.600 (9-10 unidades) Localização: on-lineDuração: um a dois anos em média; programa deve ser concluído dentro de três anos

Ciência de Dados A-Z: Exercícios de Ciência de Dados da Vida Real, Udemy

Se você preferir aprender sozinho em seu próprio tempo tempo, ou se quiser testar as águas antes de investir milhares em aulas, você pode se interessar pelo curso de Ciência de Dados A-Z, oferecida pela Udemy. Os alunos têm acesso às instruções passo a passo por meio de mineração de dados, modelagem, visualizações de tableau e muito mais. Inclui 21 horas de vídeos sob demanda, acesso vitalício ao conteúdo e um certificado de conclusão; há também uma garantia de reembolso de 30 dias, caso você não esteja satisfeito.

Pré-requisitos: nenhum Taxa de matrícula: US$ 199, mas atualmente à venda por US$ 10,99 Localização: on-line Duração: individualizado

Certificação de Ciência de Dados, Harvard Extension School

Para obter um certificado de ciência de dados da Harvard Extension School, você precisará concluir e obter pelo menos uma nota B em quatro cursos de certificação dentro de três anos. Você escolherá duas disciplinas eletivas de um grupo selecionado, uma exigirá curso de ciência de dados de outro grupo selecionado, e ambos um curso de estatística de nível básico e nível avançado. Esta certificação é melhor para aqueles que já têm conhecimento de programação – especialmente Python – e aqueles que buscam obter créditos de pós-graduação.

Pré-requisitos: conhecimento prévio em estatística e programação básica, incluindo conhecimento prévio de Python Taxa de matrícula: US$ 11.000 total, em média Localização: on-line e pessoalmente Duração: deve ser concluído dentro de três anos

Programa de Certificação de Ciência de Dados, eCornell

A Cornell University oferece vários certificados de ciência de dados por meio da eCornell, que é o departamento de educação on-line da universidade. Você pode escolher entre certificados personalizados que incluem análise de negócios, estatísticas de negócios, aprendizado de máquina, análise de dados, análise de dados 360 e marketing orientado a dados. Cada programa tem requisitos diferentes, mas você pode fazer um pré-teste gratuito para cada programa de certificação para ver se tem a experiência e o histórico exatos.

Pré-requisitos: não há pré-requisitos, mas você pode fazer um pré-teste para cada certificação para ver se você está qualificado. Taxa de matrícula:US$ 1.260 – US$ 9.800 dependendo do curso Localização: on-line Duração:individualizado

Ciência de Dados para Executivos, Columbia University

Columbia University’s School of Engineering offers a Data Science for Executives certificate program through EdX. It’s geared toward executives who want to learn more about statistical thinking, machine learning and how data will impact businesses in the future. It addresses the unique information that executives need to know as data becomes fundamental in the enterprise. The courses are taught by professors at Columbia University through EdX’s online platform.

A Escola de Engenharia da Columbia University oferece um programa de certificação de Ciência de Dados para Executivos por meio da EdX. Ele é voltado para executivos que desejam aprender mais sobre o pensamento estatístico, o aprendizado de máquina e como os dados afetarão as empresas no futuro. O programa aborda as informações exclusivas que os executivos precisam saber, à medida que os dados se tornam fundamentais na empresa. Os cursos são ministrados por professores da Columbia University através da plataforma online da EdX.

Pré-requisitos: nenhum Taxa de matrícula: US$ 347 Localização: on-line Duração: cinco semanas por curso

Fonte: CIO

Aliadas, tecnologia e dados de consumo ajudam marcas a otimizar sua performance em vendas

Por Ricardo Rodrigues (*)

Você sabia que, em média, menos de 2% dos visitantes que chegam a um e-commerce compram no ato? Desse dado é possível concluir muita coisa. Primeiro que nenhum negócio consegue sobreviver exclusivamente de compras por impulso. A conta de investimento em atração de público versus vendas nunca vai fechar desse jeito. O que nos leva ao segundo ponto: só porque 98% de usuários deixam um site sem comprar nada, não significa que eles não gostaram dos produtos ou não têm intenção de converter com a marca em algum momento. Essas pessoas simplesmente não estavam prontas para comprar.

E isso pode acontecer por diversos motivos – o consumidor estava sem o cartão de crédito na hora, com pressa para buscar o filho na escola ou se distraiu com um e-mail de trabalho. Isso acontece porque a jornada de compra não é linear. Ao mesmo tempo, as marcas não podem simplesmente desperdiçar todo esse volume de potenciais clientes, que entraram no site e demonstraram interesse nos produtos. Portanto as empresas precisam ajudar as pessoas a tomarem uma decisão de compra e o melhor caminho para fazer isso é através dos dados de consumo, que indicam o perfil e comportamento do público de uma empresa e podem orientar campanhas mais assertivas.

Desvendando o perfil do consumidor através dos dados

Para otimizar a estratégia de marketing digital, o primeiro passo é  identificar quem são os visitantes do site – as necessidades e desejos do consumidor. Entender com profundidade o comportamento desses usuários  enquanto navegam nas páginas do site e quais são os produtos e categorias em que tem mais interesse é essencial para que as marcas criem campanhas mais direcionadas e personalizadas, com maior potencial de conversão, fazendo com que cada consumidor se sinta especial, mais próximo e querido pela empresa.

Todo este processo, desde a primeira identificação do cliente com a marca até a fidelização e recompra, é definido pela jornada de compra.  O objetivo de qualquer negócio online é buscar a evolução do visitante nesse processo, para que se torne um comprador fiel e constante, justamente pela boa experiência vivida no e-commerce.

Uma estratégia baseada em dados

Uma vez identificados os perfis de consumo dos consumidores, é possível aplicar uma comunicação humanizada, adequada ao momento em que aquele usuário está na sua jornada de compra.

Por exemplo: resultados preliminares de uma pesquisa de neurociência e linguística, liderada pela Social Miner, mostram que quando um novo visitante entra num site e está na fase de consideração da sua jornada de compra, usar uma linguagem mais afetiva e empática pode performar até 17% melhor. Ou seja, para cadastrar mais leads, o ideal é que as marcas sejam receptivas e encantem o seu potencial cliente. Na fase de avaliação, o compartilhamento de informações sobre os produtos – utilidades e vantagens – pode garantir resultados até 23% melhores.

Já na fase de conversão, a oferta de benefícios financeiros, como descontos e condições especiais, são mais relevantes em 60% dos casos e, na fase de retenção, o cuidado com a experiência pós-compra, bem como conteúdos que proporcionam uma boa experiência garantem a fidelização.

Estudamos ainda a relação entre a navegação do usuário em um site com a sua intenção de compra. E descobrimos que quanto mais engajado esse consumidor está, visitando mais páginas, maiores são as suas chances de conversão. Isso significa que podemos prever, com baixíssimo grau de erro, a probabilidade de um visitante comprar ou não, baseado em seu comportamento de navegação. Uma boa estratégia de engajamento ajuda as marcas a guiarem a navegação dos seus visitantes dentro do site, multiplicando as oportunidades de venda.

Automação x humanização: é possível ter os dois ao mesmo tempo?

A automação, aliada à personalização, permite que as marcas tratem os seus clientes com exclusividade e melhor: faça isso de forma escalável. Ou seja, a tecnologia faz o trabalho duro de análise de dados, enquanto as equipes de marketing podem focar no que realmente importa: as pessoas e o que elas esperam das marcas.

É, portanto, um recurso essencial tanto para grandes, quanto para pequenas e médias empresas. Num cenário de grandes e-commerces, os recursos ajudam a vencer o desafio de criar campanhas humanizadas, em escala. Já para o pequeno e médio empreendedor, oferece diferencial competitivo – baseada na experiência de compra humanizada – já que nem sempre essas organizações podem brigar por preço. Chamamos essa metodologia, que garante até 3,5 vezes mais conversões para as marcas, de People Marketing.

Por fim, é sempre importante buscar parceiros de confiança para que a sua marca esteja em boas mãos, afinal é a sua reputação que está em jogo. Existem empresas que podem te ajudar nesse sentido: criando verdadeiros laços entre a sua marca e seus clientes. Nós da Social Miner promovemos uma comunicação humanizada e automatizada para e-commerces aumentarem suas vendas. Minha dica é: valorize seu consumidor e fale com ele como se fossem bons amigos. Seja autêntico e, com certeza, você irá se destacar no mercado.

(*) Ricardo Rodrigues é cofundador da Social Miner

Fonte: Proxxima

GARTNER IDENTIFICA CINCO MITOS SOBRE O USO DE INTELIGÊNCIA ARTIFICIAL NAS EMPRESAS

Os líderes de TI e de negócios geralmente ficam confusos sobre o que a Inteligência Artificial (IA) pode fazer por suas organizações e são frequentemente desafiados por falsas ideias sobre como aplicar os conceitos dessa tecnologia em suas organizações. O Gartner Inc., líder mundial em pesquisa e aconselhamento para empresas, avalia que os gestores de TI e negócios que desenvolvem projetos de inteligência artificial devem separar a realidade dos mitos para elaborar suas estratégias de inovação para o futuro.

“Com a tecnologia de IA ​​entrando nas companhias, é crucial que os líderes de negócios e de TI compreendam completamente como as soluções inteligentes podem criar valor para seus negócios e onde estão suas limitações”, diz Alexander Linden, Vice-Presidente de pesquisa do Gartner. “As tecnologias de Inteligência Artificial só podem gerar valor se fizerem parte da estratégia da organização e forem usadas da maneira correta”.

Para evitar concepções erradas, o Gartner anuncia cinco mitos sobre o uso da Inteligência Artificial:

Mito 1: A Inteligência Artificial funciona da mesma maneira que o cérebro humano

A Inteligência Artificial é uma disciplina de engenharia da computação. Em seu estado atual, consiste em ferramentas de software destinadas a resolver problemas. Embora algumas formas de IA sejam altamente capacitadas e habilidosas, seria impossível pensar que as aplicações inteligentes atuais são semelhantes ou equivalentes à inteligência humana.

“Algumas formas de aprendizado de máquina (ML – de Machine Learning, em inglês), que é uma categoria de inteligência artificial, podem ter sido inspiradas pelo cérebro humano, mas não são equivalentes”, afirma Linden. “A tecnologia de reconhecimento de imagem, por exemplo, é mais precisa do que a maioria dos humanos, mas não é útil quando se trata de resolver um problema de matemática. A regra com a Inteligência Artificial, hoje, é que ela resolve uma tarefa extremamente bem, mas, se as condições da tarefa mudarem um pouco, essa tecnologia falhará”.

Mito 2: Máquinas inteligentes aprendem por conta própria

A intervenção humana é necessária para desenvolver uma máquina ou um sistema baseado em Inteligência Artificial. O envolvimento pode vir de experientes cientistas de dados humanos, que são imprescindíveis para executar tarefas como definir e enquadrar quais são as questões a serem executadas, preparar os dados, determinar conjuntos de informações apropriados para a análise, remover possíveis erros (ver mito 3) e – o mais importante – para atualizar continuamente o software, permitindo a integração de novos conhecimentos e de aprendizagem para o próximo ciclo de inovação presente nas máquinas.

Mito 3: Inteligência Artificial pode ser livre de preconceito

Toda tecnologia de Inteligência Artificial é baseada em dados, regras e outros tipos de informações fornecidas por especialistas humanos. Semelhante aos humanos, as aplicações inteligentes também são intrinsecamente enviesadas por uma forma ou outra de análise.

“Hoje, não há como banir completamente o preconceito, no entanto, temos que tentar reduzi-lo ao mínimo”, diz Linden. “Além de soluções tecnológicas, como diversos conjuntos de dados, também é crucial garantir a diversidade nas equipes que trabalham com a Inteligência Artificial e fazer com que os membros da equipe revisem o trabalho uns dos outros. Esse processo simples pode reduzir significativamente o viés de seleção e confirmação”.

Mito 4: A Inteligência Artificial só substituirá trabalhos repetitivos e que não exigem graus avançados

A Inteligência Artificial permite que as empresas tomem decisões mais precisas por meio de previsões, classificações e agrupamentos da análise de dados. Essas habilidades das soluções baseadas em IA permitiram que as empresas reduzissem as demandas acerca das tarefas mais comuns, mas, por outro lado, também aumentaram a complexidade das tarefas remanescentes. Um exemplo é o uso de Inteligência Artificial na avaliação de imagens na área da saúde. Uma radiografia de tórax baseada em IA pode detectar doenças mais rapidamente que radiologistas. No setor financeiro e de seguros, robôs estão sendo usados ​​para o gerenciamento de rendas ou detecção de fraudes. Essas capacidades não eliminam o envolvimento humano nessas tarefas, mas permitem que os humanos lidem apenas com os casos incomuns ou mais específicos. Com o avanço da Inteligência Artificial ​​no local de trabalho, os líderes de negócios e de TI devem ajustar os perfis de trabalho e o planejamento das habilidades de suas equipes, além de oferecer opções de certificações e reciclagem de conhecimento para os profissionais já presentes na companhia.

Mito 5: Nem todas as empresas precisam de uma estratégia de Inteligência Artificial

Todas as organizações devem considerar o impacto potencial das soluções de Inteligência Artificial ​​em suas estratégias e investigar como essa tecnologia pode ser aplicada às demandas de suas operações. Evitar a exploração da Inteligência Artificial é o mesmo que abandonar a próxima fase da automação, o que, em última análise, poderia colocar as companhias em desvantagem competitiva.

“Mesmo que a estratégia atual de uma empresa não utilize a Inteligência Artificial, é importante que os líderes de negócios dessa companhia avaliem esse tema para tomar uma decisão consciente, baseada em muita pesquisa e avaliação do cenário. E como em relação a qualquer outra estratégia, é sempre recomendável que as companhias revisitem periodicamente seus planos, alterando suas diretrizes e rumos de acordo com as necessidades da organização. As ferramentas de Inteligência Artificial podem ser necessárias mais cedo do que o esperado”, finaliza Linden.

Fonte: Digitalks

O que você não está vendo no MWC: fim dos apps e edge computing.

Está no MWC, mas nem todo mundo está vendo.

Os apps como os conhecemos vão ir desaparecendo aos poucos, cedendo lugar a uma nova era de “aplicativos”, se é que os chamaremos assim, em que a integração com a internet será mais íntima e pervasiva, em que plataformas de interação cognitiva, anabolisadas por dados, falarão (literalmente) de forma mais próxima conosco e em que as marcas terão a sua disposição, para conversar de maneira interativa direta, recursos digitais em tempo real, one to one, como nunca tivemos antes.

Quem acompanha o MWC todos os anos está vendo isso acontecer em capítulos. De uma certa forma, quase em câmera lenta.

Embora sempre repitamos, com razão, que as transformações tecnológicas digitais avançam a uma velocidade estonteante, essa substituição dos apps, instalados em nossos celulares, por uma nova geração tecnológica de interação direta entre o emissor (qualquer emissor, aquele que aciona uma cadeia de interação) e nós, humanos consumidores e usuários, vem se dando de maneira gradual. E deverá seguir assim.

Quando digo fim dos apps, digo fim dos aplicativos que temos hoje populando a tela de início dos nos celulares, você sabe. Eles nos são hoje indispensáveis e fica difícil imaginar a vida sem eles.

Mas veja, tudo o que fazem e os benefícios que nos entregam, seguirão. E serão ainda mais sofisticados. O que fica cada vez mais claro a cada MWC é que eles irão cedendo espaço a plataformas que conversarão mais conosco, seja por voz (as assistentes de voz que viraram celebridades de dois anos para cá), que é a tendência mais clara hoje, seja por video-conf (imagem), e que estarão embarcadas em todas as coisas, a Internet das Coisas.

Até os próprios celulares, na mesma linha da câmera lenta, irão sendo substituídos aos poucos por torradeiras. If you know what I mean.

Isso está no MWC 2019 como está também, só que nas salas mais técnicas, a discussão sobre edge computing, que é mais cabeçuda e difícil para quem não é do mundo telcom, como é o seu caso e o meu, mas que vale aqui comentarmos, porque é um pedaço importante de todos os parágrafos aí de cima, aquela parte que nós leigos não vemos, mas que viabiliza a interface que chega até nós e com a qual interagimos.

Tentando facilitar nossa vida aqui, o tal edge computing é uma camada de infra-estrutura de armazenagem e transmissão de dados que vai ficar (já está ficando) entre a nuvem e nossos aparatos móveis de dia a dia. Ela vai trazer mais agilidade, eficiência e flexibilidade ao tráfego de dados e, portanto, para nossa vida em geral. Chama-se edge porque fica na franja de rede mais próxima dos devices que levamos no bolso hoje, ou de qualquer aparelho/máquina que se conecte com a internet.

É papo de infra-estrutura de rede, mas que vai possibilitar que novos e ainda mais diversificados recursos de aparelhos celulares possam ser desenvolvidos e que, por exemplo, campanhas interativas das marcas sejam resolvidas com maiores e melhores recursos digitais interativos.

Bom, se não entendeu, deixa pra lá. Quis apenas sinalizar aqui que o edge computing vai vir e que vai ajudar a nos conectarmos de forma ainda mais rápida e rica, no ambiente mobile.

Mais do que toda a nova coleção de aparelhos móveis que o MWC 2019 está exibindo, são essas transformações as que de fato vão mudar mais profundamente o mundo (cada vez mais mobile) em que vivemos.

Fonte: Proxxima

CI&T aponta tendências da transformação digital para 2019

Relevância da cultura baseada em dados, necessidade de autonomia às áreas e mudanças no marketing digital estão entre as tendências para a jornada de transformação digital das empresas no próximo ano

De acordo com o Gartner, a transformação digital de negócios passou de experimento para mainstream. As iniciativas digitais vão liderar a lista de prioridades dos CIOs em 2019, com 33% das empresas nas etapas de escala ou refino da maturidade digital – um número acima dos 17% em 2018. Outro dado que chama a atenção é que apenas 4% das organizações não terão nenhuma iniciativa digital no próximo ano, o que sinaliza essa mudança do digital como uma plataforma mainstream.

CI&T, multinacional brasileira especializada em transformação digital de grandes marcas com presença global, compartilha algumas tendências desse mercado para o próximo ano:

Adoção da cultura data-driven: As organizações deverão intensificar o uso de dados como parte do planejamento e estratégias de negócios para todas as suas áreas. Uma cultura baseada em dados permite o monitoramento em tempo real das principais fontes de informação, tanto para guiar processos-chave de transformação digital como realizar atualizações tempestivas no desempenho de lançamentos de novos produtos e serviços. Para compreender as interações com os consumidores, as empresas terão que possuir maior competência em análise de dados (analytics). O uso do analytics fará toda a diferença para criar novas jornadas, onde o consumidor terá suas necessidades antecipadas e supridas de forma sem precedentes, assim como a identificação e a correção tempestiva de pontos de fricção. Ao se tornar uma organização mais inteligente e data-driven, será possível retroalimentar o negócio com dados e insights, construindo uma cultura de valor com foco no cliente e, consequentemente, impulsionando os negócios.

Mudanças do marketing no digital – Em 2019, as marcas deverão intensificar ainda mais a substituição das técnicas tradicionais por um novo mindset, mudando suas estratégias de marketing para focá-las no estímulo à experimentação e, principalmente, na inserção do cliente no centro do negócio entendendo não apenas seu mix de canais, mas sua relação com múltiplos touchpoints on e offline. O chamado Agile Marketing precisará ser implementado, com ciclos curtos e rápidos aprendizados como parte do processo de transformação digital. Para isso, equipes de marketing deverão estudar mais e correr atrás dos resultados.

Revolução da Inteligência Artificial (IA) – Outra tendência que crescerá exponencialmente será a aplicação da Inteligência Artificial, especialmente em assistentes virtuais para a oferta de experiências altamente convenientes, personalizadas e onipresentes aos consumidores. A IA vai provocar uma verdadeira revolução nos negócios peer-to-peer oupeer-to-machine, para transformá-los em machine-to-machine através da voz.

Autonomia e empoderamento das áreas – A quebra de estruturas de silos (departamentos) para dar lugar às equipes multidisciplinares (SQUADs) nas organizações está entre as ações-chave do processo de mudança cultura da transformação digital. A tendência é a formação de equipes com mais autonomia e empoderamento, agindo de forma colaborativa, em torno de um objetivo comum e com incentivo à experimentação e inovação, para que a empresa ganhe a velocidade que o mercado exige na tomada de decisões que vão gerar real valor aos seus consumidores.

Capacidade de lidar com riscos – A transformação digital traz muitos desafios e riscos também. Ano a ano, as empresas precisarão estar cada vez mais preparadas para lidar com os riscos dessa jornada, que inclui testes e experimentos fundamentais para a evolução da marca no ambiente digital. As organizações vão precisar entender que a missão de resolver problemas vai além de uma área específica, para ser tratada de forma global por todas as esferas, especialmente a do cliente.

“Em 2019, teremos que ter um olhar ainda mais profundo para as capacidades disruptivas dessas tendências, que vão provocar grandes transformações nas relações entre os consumidores e as marcas”, disse Marcelo Trevisani, CMO da CI&T.

Fonte: Proxxima

Segurança e acesso a dados preocupam times de analytics

Estudo da MicroStrategy mapeia o estágio da incorporação de boas práticas de gestão de dados em empresas no Brasil e no mundo

Cerca de 78% dos profissionais brasileiros que trabalham com dados e ferramentas de analytics acreditam que suas empresas estão utilizando tecnologias de dados de maneira efetiva. Para 75% deles, estas tecnologias tem cumprido um papel importante na transformação digital de suas organizações.

Os dados são da MicroStrategy (MSTR), empresa que oferece plataformas de análise de dados e softwares de mobilidade ao mercado. A companhia realizou um estudo com 500 profissionais das áreas de analytics e BI para descobrir o estágio da adoção de práticas da analytics nas empresas.

A pesquisa Global State of Enterprise Analytics foi realizada em abril com respondentes da Alemanha, Reino Unido, Estados Unidos e Brasil, em parceria com a consultoria de pesquisa Hall & Partners. Os participantes representam empresas com entre 250 e 20 mil funcionários.

Segundo 62% dos brasileiros que participaram da pesquisa, a principal aplicação de ferramentas de analytics está na orientação de estratégias. Já 57% buscam usar dados para sistematizar processos e otimizar custos. Mais da metade usa dados para monitorar o desempenho financeiro da empresa e gerenciar riscos de mercado. Usar dados para desenvolver produtos e atrair clientes, por sua vez, está no escopo de 45% dos profissionais brasileiros.

Ainda, 6 em cada 10 profissionais brasileiros dizem obter mais eficiência e produtividade dos processos de trabalho com o apoio de dados. As áreas que mais fazem uso de ferramentas de analytics são TI, finanças e Serviços ao Consumidor.

Quando questionados sobre as tendências que terão os impactos mais significativos sobre as práticas de analytics nos próximos cinco anos, os entrevistados brasileiros ranquearam tecnologias de cloud computing, big data e inteligência artificial como as mais relevantes.

Profissionalização dos departamentos de dados

A pesquisa identificou que 62% das empresas brasileiras já contam com um chief data officer (CDO) e 17% estão considerando criar uma posição voltada para a gestão de dados. De forma a otimizar seus processos de gestão, 46% consideram migrar toda sua estrutura de TI para a nuvem e 80% planejam investir mais em analytics nos próximos anos. Ainda, 77% das empresas brasileiras planejam investir na contratação de talentos com especialidades analíticas em um futuro próximo.

Desafios

Apesar do olhar atento às disciplinas ligadas a dados, muitas empresas ainda esbarram em problemas que impedem a consolidação de práticas de analytics. De acordo com 48% dos brasileiros participantes, a principal barreira para o uso de data e analytics em suas empresas é a preocupação com a segurança de dados. Em segundo lugar, segundo 30% dos respondentes, está a falta de treinamento para os profissionais, e, em terceiro, o acesso limitado aos dados da organização, conforme apontaram 27% dos participantes.

O uso de soluções tecnológicas pouco amigáveis ao trabalho com dados é um empecilho para 23% dos profissionais. Além disso, 20% acreditam que suas empresas não possuem uma estratégia orientada para dados e que o uso de analytics não é uma prioridade para os executivos.

Fonte: Meio & Mensagem

Microsoft utiliza inteligência artificial para solucionar problemas ambientais

O meio ambiente há muito tempo sofre com os resultados das atitudes humanas. Com isso em mente, a Microsoft desenvolveu o AI For Earth, programa que auxilia para a busca de soluções sustentáveis por meio da inteligência artificial.

Focado em quatro áreas fundamentais para a saúde do planeta, sendo estas: mudanças climáticas, diminuição da biodiversidade, escassez de água e desempenho agrícola, a novidade impulsionou 140 projetos em 45 países, sendo um deles o Conservation Meetrics. Nele, a IA é utilizada para impedir a caça ilegal de elefantes africanos e o contrabando do marfim, uma vez que sua população diminuiu cerca de 30% nos últimos sete anos devido à atividades ilícitas relacionadas.

A Microsoft parece otimista com a iniciativa. O líder da AI For Earth, Lucas Joppa, afirma “os problemas ambientais são criados por pessoas e as soluções para eles também serão. A inteligência artificial permite capacitar os cidadãos a encontrar soluções mais rápido”.

Fonte: Adnews

 

10 tendências tecnológicas para 2019, segundo o Gartner

Blockchain, realidade aumentada e computação quântica são algumas das promessas que o mercado deve ficar de olho

Gartner destacou as principais tendências tecnológicas que as organizações precisam explorar em 2019. A consultoria define uma tendência tecnológica estratégica como a que apresenta um potencial disruptivo e que está começando a sair de um estado emergente para um impacto e uso mais amplo, ou que estão crescendo rapidamente com um alto grau de volatilidade e atingindo pontos de inflexão nos próximos cinco anos.

“Intelligence Digital Mesh tem sido um tema consistente nos últimos dois anos e continua como um grande direcionador até 2019. As tendências em cada um desses três temas são um ingrediente chave na condução de um processo contínuo de inovação como parte de uma estratégia ContinuousNEXT ”, disse David Cearley , vice-presidente do Gartner.

“Por exemplo, inteligência artificial (AI) na forma de coisas automatizadas e inteligência aumentada está sendo usada junto com IoT e computação de borda para entregar espaços inteligentes altamente integrados. Esse efeito combinatório de múltiplas tendências se unindo para produzir novas oportunidades e gerar novas rupturas é uma marca registrada das 10 principais tendências tecnológicas estratégicas do Gartner para 2019”, acrescenta.

Conheça as dez tendências:

Coisas autônomas

Coisas autônomas, como robôs, drones e veículos autônomos, usam AI para automatizar funções previamente executadas por humanos. Sua automação vai além da fornecida por modelos de programação rígidos – eles exploram a AI para fornecer comportamentos avançados que interagem mais naturalmente com o ambiente e com as pessoas.

“À medida que as coisas autônomas proliferam, esperamos uma mudança das coisas inteligentes autônomas para um enxame de coisas inteligentes colaborativas, com múltiplos dispositivos trabalhando juntos, independentemente das pessoas ou com a contribuição humana. Por exemplo, se um drone examinasse um campo grande e descobrisse que estava pronto para a colheita, ele poderia despachar uma ‘colheita autônoma’. Ou no mercado de entregas, a solução mais eficaz seria usar um veículo autônomo para mapear a área alvo. Robôs e drones a bordo do veículo poderiam garantir a entrega final do pacote”, diz o executivo.

Augmented Analytics

O Augmented Analytics (ou analytics aumentado) concentra-se em uma área específica de inteligência aumentada, usando o machine learning para transformar como o conteúdo analítico é desenvolvido, consumido e compartilhado. Os recursos analíticos aumentados avançarão rapidamente para a adoção principal, como um recurso importante de preparação de dados, gerenciamento de dados, análise moderna, gerenciamento de processos de negócios, mineração de processos e plataformas de ciência de dados.

Insights automatizados de análises aumentadas também serão incorporados em aplicativos corporativos – por exemplo, os departamentos de RH, finanças, vendas, marketing, atendimento ao cliente, compras e gerenciamento de ativos – para otimizar as decisões e ações de todos os funcionários dentro de seu contexto, não apenas aqueles de analistas e cientistas de dados. A análise aumentada automatiza o processo de preparação de dados, geração de insights e visualização de insights, eliminando a necessidade de cientistas de dados profissionais em muitas situações.

“Isso levará à ciência de dados de cidadãos, um conjunto emergente de recursos e práticas que permite aos usuários cuja tarefa principal está fora do campo de estatística e análise extrair insights preditivos e prescritivos dos dados. Até 2020, o número de cientistas de dados de cidadãos crescerá cinco vezes mais rápido que o número de cientistas especialistas em dados. As organizações podem usar cientistas de dados de cidadãos para preencher a lacuna de conhecimento em ciência de dados e aprendizado de máquina causada pela escassez e pelo alto custo dos cientistas de dados”, explica Cearley.

Desenvolvimento orientado por AI

O mercado está mudando rapidamente de uma abordagem em que os cientistas de dados profissionais devem se associar aos desenvolvedores de aplicativos para criar a maioria das soluções aprimoradas por AI para um modelo em que o desenvolvedor profissional possa operar sozinho usando modelos predefinidos como serviço. Isso fornece ao desenvolvedor um ecossistema de algoritmos e modelos de AI, bem como ferramentas de desenvolvimento adaptadas para integrar recursos e modelos de AI a uma solução.

Outro nível de oportunidade para o desenvolvimento de aplicativos profissionais surge à medida que AI é aplicada ao próprio processo de desenvolvimento para automatizar várias funções de ciência de dados, desenvolvimento de aplicativos e testes. Em 2022, pelo menos 40% dos novos projetos de desenvolvimento de aplicativos terão co-desenvolvedores de AI em sua equipe.

“Por fim, ambientes de desenvolvimento altamente avançados baseados em AI, automatizando aspectos funcionais e não-funcionais de aplicativos, darão origem a uma nova era do ‘desenvolvedor de aplicativos cidadão’, onde não profissionais poderão usar ferramentas orientadas por AI para gerar novas soluções automaticamente. Ferramentas que permitem que profissionais não profissionais gerem aplicativos sem codificação não são novidade, mas esperamos que sistemas com tecnologia AI ofereçam um novo nível de flexibilidade ”, disse Cearley.

Gêmeos digitais

Um gêmeo digital é uma representação digital de uma entidade ou sistema do mundo real. Até 2020, o Gartner estima que haverá mais de 20 bilhões de sensores conectados e terminais e gêmeos digitais existirão para potencialmente bilhões de coisas. As organizações irão implementar gêmeos digitais e evoluirão ao longo do tempo, melhorando sua capacidade de coletar e visualizar os dados corretos, aplicar as análises e regras e responder efetivamente aos objetivos de negócios.

“Um aspecto da evolução dos gêmeos digitais que vai além da IoT será empreendimentos implementando gêmeos digitais de suas organizações (DTOs). Um DTO é um modelo de software dinâmico que se baseia em dados operacionais ou outros para entender como uma organização operacionaliza seu modelo de negócios, se conecta com seu estado atual, implementa recursos e responde a mudanças para entregar o valor esperado ao cliente. Os DTOs ajudam a impulsionar a eficiência nos processos de negócios, além de criar processos mais flexíveis, dinâmicos e responsivos, que podem reagir às mudanças de condições automaticamente”, frisa o executivo.

Borda potencializada

A borda se refere aos dispositivos de ponto final usados ​​pelas pessoas ou incorporados. A computação de borda (edge computing) descreve uma topologia de computação na qual o processamento de informações e a coleta e entrega de conteúdo são colocados mais próximos desses pontos de extremidade. Ela tenta manter o tráfego e o processamento local, com o objetivo de reduzir o tráfego e a latência.

No curto prazo, a borda está sendo impulsionada pela IoT e a necessidade de manter o processamento próximo ao final, e não em um servidor de nuvem centralizado. No entanto, em vez de criar uma nova arquitetura, a computação em nuvem e a computação de borda evoluirão como modelos complementares, com serviços em nuvem sendo gerenciados como um serviço centralizado executando não apenas em servidores centralizados, mas em servidores distribuídos no local e nos próprios dispositivos de borda.

Nos próximos cinco anos, chips de AI especializados, além de maior poder de processamento, armazenamento e outros recursos avançados, serão adicionados a uma ampla gama de dispositivos de borda. A extrema heterogeneidade desse mundo de IoT integrado e os longos ciclos de vida de ativos, como sistemas industriais, criarão desafios significativos de gerenciamento. À medida que o 5G amadurece, o ambiente de computação de borda em expansão terá uma comunicação mais robusta para os serviços centralizados. O 5G fornece menor latência, maior largura de banda e um aumento dramático no número de nós (endoints de borda) por km2.

Experiência imersiva

As plataformas de conversação estão mudando a maneira como as pessoas interagem com o mundo digital. A realidade virtual (VR), a realidade aumentada (AR) e a realidade mista (MR) estão mudando a maneira pela qual as pessoas percebem o mundo digital. Essa mudança combinada nos modelos de percepção e interação leva à experiência imersiva do usuário no futuro.

“Com o tempo, passaremos do pensamento sobre dispositivos individuais e tecnologias de interface de usuário fragmentada (UI) para uma experiência multicanal e multimodal. A experiência multimodal conectará pessoas com o mundo digital em centenas de dispositivos periféricos que os cercam, incluindo dispositivos de computação tradicionais, wearables, automóveis, sensores ambientais e aparelhos de consumo”, disse Cearley. “A experiência multicanal usará todos os sentidos humanos, bem como os sentidos avançados do computador (como calor, umidade e radar) nesses dispositivos multimodais. Esse ambiente multi-experiência criará uma experiência de ambiente na qual os espaços que nos cercam definem ‘computador’ em vez dos dispositivos individuais. Com efeito, o ambiente é o computador”.

Blockchain

Blockchain promete remodelar as indústrias, trazendo confiança, fornecendo transparência e reduzindo o atrito entre os ecossistemas de negócios, potencialmente reduzindo os custos, diminuindo os tempos de liquidação das transações e melhorando o fluxo de caixa. Hoje, a confiança é depositada em bancos, câmaras de compensação, governos e muitas outras instituições como autoridades centrais com a “versão única da verdade” mantida de forma segura em seus bancos de dados. O modelo de confiança centralizada adiciona atrasos e custos de fricção (comissões, taxas e o valor do dinheiro) às transações. O conceito de blockchain fornece um modo de confiança alternativo e elimina a necessidade de autoridades centrais em arbitragem de transações.

As atuais tecnologias e conceitos de blockchain são imaturas, mal compreendidas e não comprovadas em operações de negócios em escala de missão crítica. Isto é particularmente verdade com os elementos complexos que suportam cenários mais sofisticados. “Apesar dos desafios, o significativo potencial de interrupção significa que CIOs e líderes de TI devem começar a avaliar blockchain, mesmo que não adotem as tecnologias agressivamente nos próximos anos”, alerta.

Muitas iniciativas blockchain hoje não implementam todos os atributos da ferramenta – por exemplo, um banco de dados altamente distribuído. Essas soluções inspiradas em blockchain são posicionadas como um meio de obter eficiência operacional, automatizando processos de negócios ou digitalizando registros. Eles têm o potencial de aprimorar o compartilhamento de informações entre entidades conhecidas, bem como melhorar as oportunidades de rastreamento de ativos físicos e digitais.

No entanto, essas abordagens perdem o valor da interrupção real do blockchain e podem aumentar o aprisionamento do fornecedor. As organizações que escolherem essa opção devem entender as limitações e estar preparadas para passar a soluções completas de blockchain ao longo do tempo e que os mesmos resultados possam ser obtidos com o uso mais eficiente e ajustado das tecnologias não-bloqueadas existentes.

Espaços inteligentes

Um espaço inteligente é um ambiente físico ou digital em que os seres humanos e os sistemas com tecnologia interagem em ecossistemas cada vez mais abertos, conectados, coordenados e inteligentes. Múltiplos elementos – incluindo pessoas, processos, serviços e coisas – se reúnem em um espaço inteligente para criar uma experiência mais imersiva, interativa e automatizada para um conjunto-alvo de pessoas e cenários do setor.

“Essa tendência vem se aglutinando há algum tempo em torno de elementos como cidades inteligentes, locais de trabalho digitais, residências inteligentes e fábricas conectadas. Acreditamos que o mercado está entrando em um período de entrega acelerada de espaços inteligentes robustos, com a tecnologia se tornando parte integral de nossas vidas diárias, seja como funcionários, clientes, consumidores, membros da comunidade ou cidadãos”, disse Cearley.

Ética e privacidade digital

A ética e a privacidade digitais são preocupações crescentes para indivíduos, organizações e governos. As pessoas estão cada vez mais preocupadas sobre como suas informações pessoais estão sendo usadas por organizações nos setores público e privado, e a reação só aumentará para organizações que não estejam abordando proativamente essas preocupações.

“Qualquer discussão sobre privacidade deve ser fundamentada no tópico mais amplo da ética digital e na confiança de seus clientes, constituintes e funcionários. Embora a privacidade e a segurança sejam componentes fundamentais na construção da confiança, a confiança é, na verdade, mais do que apenas esses componentes . Confiança é a aceitação da verdade de uma declaração sem evidência ou investigação. Em última análise, a posição de uma organização sobre a privacidade deve ser impulsionada por sua posição mais ampla sobre ética e confiança. Mudar de privacidade para ética leva a conversa para além de ‘estamos em conformidade’ em direção a ‘estamos fazendo a coisa certa’.

Computação quântica

A computação quântica é um tipo de computação não-clássica que opera no estado quântico de partículas subatômicas (por exemplo, elétrons e íons) que representam informações como elementos denotados como bits quânticos (qubits). A execução paralela e a escalabilidade exponencial dos computadores quânticos significa que eles se sobressaem com problemas muito complexos para uma abordagem tradicional ou onde os algoritmos tradicionais demorariam muito para encontrar uma solução.

Indústrias como as organizações automotivas, financeiras, de seguros, farmacêuticas, militares e de pesquisa têm mais a ganhar com os avanços na computação quântica. Na indústria farmacêutica, por exemplo, a tecnologia poderia ser usada para modelar interações moleculares em níveis atômicos para acelerar o tempo de comercialização de novos medicamentos para tratamento de câncer ou poderia acelerar e prever com mais precisão a interação de proteínas levando a novas metodologias farmacêuticas.

Fonte: It Forum 365