De olho na carreira do futuro: 10 mestrados internacionais em Ciência de Dados

A análise de dados é um campo em rápido crescimento, à medida que as empresas correm para utilizar os dados valiosos que coletam. Se você precisa aumentar a proficiência da sua equipe em Ciência de Dados, considere a possibilidade de investir em um mestrado na área.

Data Science Degree Programs Guide lista os melhores programas de mestrado em Ciências de Dados em universidades públicas e sem fins lucrativos. Um sistema de pontos foi desenvolvido com base em três categorias: relação aluno-professor, preço líquido médio e se a escola oferece áreas de concentração no programa de graduação.

Aqui estão algumas delas:

1. Purdue University: Krannert School of Management

Oferecido através da Krannert School of Management, o Mestrado em Ciência da Administração e Gestão de Informação da Purdue University é um programa de tempo integral que começa todos os anos em junho e dura três semestres. O programa de pós-graduação oferece três especializações em análise da cadeia de suprimentos, análise de investimentos ou análise de finanças corporativas.

É um programa certificado pela STEM, concebido para educar os alunos sobre as mais recentes tecnologias e técnicas analíticas, através da experiência prática. Você também aprenderá a usar várias ferramentas relevantes do setor, como SAS, Python, Minitab e SQL. Ao se formar, a universidade promete que o profissional poderá aplicar suas habilidades a problemas de dados usando as práticas recomendadas mais recentes para análise de dados corporativos.

Local : West Lafayette, Indiana
Presencial ou online? Há a necessidade de frequentar as aulas no campus
Razão aluno-professor : 12: 1
Custo: US$ 29.741 para estudantes estrangeiros, US$ 47.786 para alunos de fora do estado
Foco: Análise da Cadeia de Suprimentos, Análise de Investimentos ou Análise de Finanças Corporativas

2. DePaul University

A DePaul University oferece um mestrado em Ciência de Dados que promete equipar os alunos com as habilidades certas para uma carreira na área. O programa requer uma pós-graduação anterior, mas o profissional pode escolher entre concluir um projeto de análise de dados aplicado, fazer um curso básico de Análise Preditiva, participar de um estágio de análise ou apresentar uma dissertação de mestrado.

A DePaul University também oferece quatro especializações em Ciência de Dados, que incluem métodos computacionais, assistência médica, hospitalidade e marketing. O currículo de cada especialização “enfatiza a proficiência técnica e a experiência prática” enquanto fornece aos alunos “habilidades avançadas em mineração de dados, Estatística, Machine Learning e Big Data”.

Localização: Chicago, Illinois
No campus ou online: todos os cursos de métodos computacionais estão disponíveis online; alguns cursos de saúde, marketing e hospitalidade são online, mas outros requerem aulas presenciais
Aluno-professor : 15: 1
Custo: US$ 1.060 por crédito/hora
Foco: Métodos Computacionais, Assistência Médica, Hospitalidade e Marketing

3. University of Rochester

A University of Rochester oferece um MS in Data Science através do Instituto Goergen de Ciência de Dados. O programa pode ser concluído em dois ou três semestres de estudo em tempo integral, mas o caminho de dois semestres inclui uma carga horária rigorosa, por isso é recomendado para alunos que já tenham uma sólida formação em Ciência da Computação e Matemática. Para aqueles sem um forte conhecimento em Ciência da Computação, há a opção de um curso de verão que irá ajudar o profissional a acelerar seus conhecimentos até o início do programa.

Ao longo do programa, o profissional terá a chance de concluir estágios e obter orientação profissional. E poderá escolher entre três especializações, incluindo Métodos computacionais e estatísticos, Ciências da Saúde e Biomédicas e Ciências sociais e de Negócios.

Local: Rochester, Nova Iorque
Presencial ou online: É necessária frequência no campus
Relação de aluno para professor: 10: 1
Custo: US$ 51.072, em média, para 32 créditos
Foco: Métodos computacionais e estatísticos, Ciências da Saúde e Biomédicas e Ciências Cociais e de Negócios.

4. New York University

A New York University oferece um MS em Data Science (MSDS) com opção entre várias especializações, incluindo Data Science, Big Data, Matemática e Dados, Processamento de Linguagem Natural e Física. O profissional precisará completar 36 créditos para se formar, o que leva os alunos em tempo integral a uma média de dois anos de curso, até a conclusão da primeira especialização.

O aluno também será solicitado a concluir um projeto de conclusão durante o programa que o conduzirá por todo o processo de solução de problemas reais com dados em todos os setores. Espera-se que os alunos obtenham experiência prática útil na coleta e processamento de dados e, em seguida, utilizem esses dados para projetar e implementar soluções.  

Localização: New York
No campus ou online: É necessária a presença no campus
Relação aluno-professor: 10: 1
Custo: US$2.286, mas é possível economizar em taxas de inscrição e de serviços pagando por mais de uma especialização de uma só vez
Foco: Ciência de Dados, Big Data, Matemática e Dados, Processamento de Linguagem Natural e Física

5. Carnegie Mellon University

A Carnegie Mellon University oferece um mestrado em Computação e Ciência de Dados (MCDS) através da Tepper School of Business. Durante o primeiro semestre, o aluno terá que fazer quatro cursos básicos: Computação em Nuvem, Machine Learning, Ciência de Dados interativa e um seminário sobre Ciência de Dados. Até o final do primeiro semestre, o aluno precisará selecionar três especializações, incluindo Sistemas, Análise ou Ciência de Dados centrada no ser humano. Sua escolha ajudará a formatar os cursos que fará no resto do programa.

O programa se concentra em projetos experimentais, coleta de dados, modelagem e análise de dados, resolução de problemas e interação homem-máquina. Os problemas nessas áreas são abordados usando um currículo de Ciência da Computação que inclui Engenharia de Software, Machine Learning e Estatística. Os alunos saem aptos a trabalhar com conjuntos de dados de larga escala em ambientes complexos de TI.

Local: Pittsburgh, Pensilvânia
No campus ou online : É necessária frequência no campus
Relação de aluno para professor : 10: 1
Custo : US$ 25.000 por semestre
Concentrações: Sistemas, Análise e Ciência de Dados centrada no ser humano

6. Columbia University na cidade de Nova York

A Columbia University oferece um mestrado em Ciência de Dados por meio do Data Science Institute, que exige 30 créditos para ser concluído. O curso oferece uma longa lista de especializações, incluindo Análise na área da Saúde, Segurança Cibernética, Finanças e Business Analytics e Cidades Inteligentes, entre outros tópicos.

Antes de se inscrever no programa, o profissional precisará ser capaz de codificar em vários idiomas, como R, Python, C e Java. O domínio de pelo menos um desses idiomas será necessário para o crédito de Algorithms for Data Science.

Local: Nova York
Presencial ou online : É necessária frequência no campus
Relação de aluno para professor: 6: 1
Custo: US$ 2.018 por crédito
Especializações : Sistemas de Computação para Ciência de Dados; Cíbersegurança; Dados, Mídia e Sociedade; Finanças e Business Analytics; Fundamentos da Ciência de Dados; Análise na área de Saúde; e Cidades Inteligentes

7. North Carolina State University

A North Carolina State University oferece um programa MS in Analytics (MSA) projetado como uma experiência de aprendizado  de 10 meses que enfoca o trabalho em equipe e o coaching individual.

Para se inscrever no programa o profissional precisará de experiência com codificação em mais de um idioma, conhecimento de análise quantitativa complexa e ser graduado em Estatística. O programa de pós-graduação não requer a seleção de uma longa lista de disciplinas eletivas e aulas básicas. Em vez disso, o profissional seguirá um currículo afinado que incentiva o aprendizado interativo e o trabalho em equipe.

Localização: Raleigh, Carolina do Norte
Presencial ou online: É necessária frequência no campus
Relação de aluno para professor: 6: 1
Custo: US$ 23.460 para estudantes americanos, US$ 43.466 para estudantes estrangeiros
Especializações: Nenhuma

8. Georgia Institute of Technology

O Georgia Institute of Technology oferece um MS in Analytics que combina Estatística, Pesquisa Operacional, Computação e Negócios para oferecer um programa de graduação interdisciplinar para cientistas de dados. Ele é projetado para dotar os estudantes de Ciência de Dados nas habilidades adequadas para lidar com Inteligência de Negócios e tomada de decisões em um ambiente corporativo.

O programa MS inclui três trilhas: Ferramentas Analíticas, Análise de Negócios e Análise de Dados Computacionais. O estudante  pode escolher entre um programa no campus que pode ser concluído em um ano ou um programa de graduação online que normalmente é concluído em um ou dois anos. A optação pelo programa presencial dá acesso a orientação profissional.

Localização: Atlanta, Georgia
No campus ou online: Programas presenciais e online
Relação aluno-professor : 20:1
Custo: US$ 1.206 por crédito/hora para estudantes residentes, $ 1.665 por crédito/hora para estudantes de fora do estado; e $ 275 por crédito/hora para o programa online
Especializações: Ferramentas Analíticas, Análise de Negócios e Análise de Dados Computacionais

9. Universidade de Oklahoma

A Universidade de Oklahoma oferece um mestrado em Ciência de Dados e Analytics através das escolas de Ciência da Computação e Engenharia Industrial e de Sistemas. O curso combina conhecimentos de ambos os departamentos para ensinar aos alunos as habilidades certas para “projetar e construir ferramentas para extrair, assimilar e analisar dados”.

Alunos em período integral podem obter um diploma em 14 meses, mas também há opções para alunos em meio período. O grau mais simples, sem defesa de tese, requer nove disciplinas eletivas, 13 horas de cursos em cima das 24 horas necessárias de um curso de engenharia. O curso com defesa de tese requer três disciplinas eletivas em cima dos 20 disciplinas necessárias, uma hora de estágio de engenharia e seis horas gastas em um projeto de pesquisa.

Local : Norman, Oklahoma
Presencial ou online : no campus, opções online e híbridas
Relação aluno-professor : 18: 1
Mensalidade : US$ 30.000 por semestre, em média
Especializações: Nenhuma

10. Universidade de Iowa

A Universidade de Iowa oferece seu Mestrado em Ciência e Análise de Dados (MS DSA)através do Tippie College of Business. Essa graduação interdisciplinar combina Big Data e Business Analytics, permitindo que os alunos trabalhem “de ponta a ponta no campo do Big Data”, de acordo com a universidade.

O curso é realizado online e combina conceitos de Ciência da Computação e Engenharia de Sistemas. Alunos de pós-graduação podem escolher entre um caminho apenas de cursos ou um de defesa de tese. Em geral, leva 14 meses para que os alunos obtenham os 33 créditos necessários para a formatura. O mestrado requer passar pelos 10 cursos, mas, depois dos cinco primeiros, o aluno ganhará um certificado de especialização.

Local: Iowa City, Iowa
Proporção aluno-professor: 15: 1
Presencial ou online: Presença obrigatória no campus
Mensalidade: US $ 10.457 por semestre para estudantes residentes, US $ 16.860 para estudantes de fora do estado
Especialização: Nenhuma

Fonte:http: IDGNOW

Gestão da informação em tempo real e o aumento da produtividade das empresas

Considerado o novo petróleo por conter alto valor na geração de negócios, os dados são cada vez mais peça-chave na condução da gestão das empresas. Seja na tomada de decisão ou na capacidade de crescimento da produtividade, analisar e entender a grande quantidade de informações que temos à disposição é algo estratégico e indispensável para as companhias, independente do seu porte ou setor de atuação.

Extrair valor das iniciativas de big data analytics tem acelerado a busca por soluções e ferramentas que auxiliem nesse processo. De acordo com estimativas da consultoria IDC, os gastos com esses serviços devem crescer este ano no Brasil cerca de 18% em relação a 2017, e os gastos totais, incluindo infraestrutura, software e serviços, vão atingir US$3,2 bilhões no país.

Diversos setores já entenderam a importância da big data analytics e da gestão da informação em tempo real. Essa capacidade fornece aos gestores e tomadores de decisão informações acuradas e consistentes sobre o seu negócio, aumentando a assertividade nas ações. O principal objetivo é atingir maturidade que resulte em redução de custo, em melhor eficiência e, acima de tudo, em ganho de produtividade.

Outro ponto de extrema importância quando falamos em análise de informações é compreender possíveis falhas que podem gerar impactos negativos. O monitoramento de dados pode levar a uma maior identificação de erros, buscando a sua resolução com agilidade. O uso de ferramentas de big data analytics consegue utilizar de capacidade preditiva para encontrar problemas mais graves, o que leva a tomada de decisões eficientes para corrigi-los mais rapidamente.

 

A gestão da informação também diz respeito a dados retroativos. Ou seja, manter o histórico de dados coletados garante a realização de análises preditivas, que também possuem alto valor.

Além disso, caracterizar os tipos de dados que devem ser geridos em tempo real, a partir das melhores estratégias do seu negócio, também é fundamental para garantir ganho de eficiência. Diante de um processo que assegure que os dados sejam úteis e gerem novos insights para o gestor, é preciso criar padrões, tanto de qualidade, como de aplicações. A partir da compreensão específica do seu mercado, deve-se identificar dados que atendam à redução dos riscos operacionais, à padronização dos processos repetíveis e à melhoria dos fluxos de trabalho, por exemplo.

Em termos práticos, uma boa gestão da informação em tempo real oferece, além dos benefícios já mencionados, uma melhor realocação de recursos humanos e tecnológicos. Isso resulta em desgargalamento de operações críticas dentro da empresa. Além disso, também cria um workflow mais claro e objetivo das diversas etapas de comunicação entre os diferentes setores da companhia. Ou seja, reforça uma cultura organizacional que preze pela correção, responsabilidade e qualidade nos trabalhos desenvolvidos.

Em um mundo cada vez mais interligado, e que qualquer ação realizada gera dados e informações, é natural que todos as empresas queiram o otimizar a gestão a partir da análise correta. As companhias podem fazer essa implementação desde um profissional dedicado a essa função, até um cientista de dados, ou por meio de plataformas tecnológicas que integrem aos sistemas de gestão já presentes nas empresas.

Fonte: Ecommerce News

Solicitar dados públicos anonimamente se torna mais fácil no Brasil com novos mecanismos do governo e da sociedade civil

Para jornalistas brasileiros, poder preservar a identidade ao solicitar dados públicos por meio da Lei de Acesso à Informação (LAI) tornou-se mais fácil recentemente.

Na semana passada, o Ministério da Transparência e Controladoria-Geral da União (CGU) passou a permitir que cidadãos peçam informações a órgãos federais de forma “anônima”. Isso tornou o país um dos sete no mundo a proteger a identidade dos requerentes, de acordo com um estudo da Fundação Getúlio Vargas do Rio de Janeiro (FGV-Rio).

Com o novo dispositivo, o solicitante ainda precisa inserir seus dados pessoais ao fazer o pedido pela LAI, mas a identidade é conhecida apenas pela CGU, de acordo com reportagem do Estadão. Isso quer dizer que o servidor público encarregado de fornecer a informação não sabe quem fez a pergunta.

Embora a mudança valha apenas para instâncias federais do governo, os jornalistas que quiserem manter o anonimato ao requisitar dados a órgãos estaduais e municipais, assim como a federais, também podem recorrer a uma nova ferramenta da Open Knowledge Brasil chamada Queremos Saber. O nome é uma homenagem ao site de pedidos de informação criado pelo grupo Transparência Hacker em 2011, antes mesmo da LAI entrar em vigor.

A plataforma funciona como um intermediador para fazer perguntas a órgãos públicos. O usuário cadastra no site seu pedido, que é encaminhado ao governo em nome da Open Knowledge. Nenhuma informação pessoal é registrada — o usuário fica apenas com um número de protocolo que, posteriormente, dá acesso à resposta, segundo explicação no site do Queremos Saber.

Um dos criadores da ferramenta, Vitor Baptista, reúne os pedidos, descarta aqueles que não se encaixam no formato da LAI e protocola junto aos órgãos governamentais as perguntas. “Esse processo é fácil de ser replicado em outros países, até porque esse problema não é exclusivo do Brasil. O Queremos Saber é um sistema muito simples, porque é feito de forma manual”, explica Baptista ao Centro Knight.

Para o repórter do Estado de S. Paulo especializado em LAI Luiz Fernando Toledo, garantir o anonimato dos requerentes pode evitar o enviesamento das respostas e, consequentemente, melhorar a qualidade do material enviado por órgãos públicos.

No ano passado, o jornalista revelou que um chefe de gabinete da prefeitura de São Paulo disse que iria dificultar a resposta dos pedidos feitos por Toledo e por repórteres da TV Globo e do Agora São Paulo. Em um áudio de uma reunião, o funcionário público diz querer fazer os profissionais desistirem de reportagens que poderiam ser negativas ao governo, tornando a obtenção de respostas por LAI mais trabalhosa. Após a revelação da gravação, o servidor foi exonerado do cargo. A prefeitura disse não haver irregularidades com a transparência.

Segundo a lei de transparência brasileira, os órgãos públicos não podem levar em consideração o motivo ou o autor das solicitações ao produzir as respostas. “[Nesse caso] mostramos que a prefeitura tinha dificuldade em cumprir a legislação, e isso continua sendo um problema até hoje”, diz Toledo ao Centro Knight.

Um relatório da organização Artigo 19 publicado este ano reuniu 16 ocorrências de intimidação judicial, pressão psicológica, exposição de identidade, perseguição política e sonegação de informações em pedidos de LAI.

Por essas razões, proteger a privacidade dos cidadãos que requerem informações públicas é uma reivindicação importante dos defensores da transparência no Brasil, segundo especialistas. O país já havia feito um compromisso nessa área em 2016, por meio da iniciativa internacional Open Government Partnership (OGP).

Novos desafios para liberdade de informação no Brasil

O próximo passo para a melhoria na transparência brasileira é estender a proteção da identidade de requerentes a outras esferas do poder público, diz Toledo. “No caso dos governos locais, o obstáculo é muito grande. Primeiro porque muitos nem têm canal de transparência, ou têm um canal precário. Existem problemas ainda mais básicos que a proteção de identidade. É justamente nesses casos que o problema é mais grave”, afirma.

Baptista destaca o fato de que o sistema de pedidos do Queremos Saber não pode ser automatizado pois não existe padronização na forma de registrar perguntas por meio da LAI entre as diferentes instâncias do governo. “Antes, se aceitava fazer pedidos por e-mail, o que facilitaria a automatização. Em outros países, é possível fazer perguntas dessa forma”, ressalta.

A forma com que o governo implementou a anonimização dos pedidos de LAI também é motivo de críticas. O fato de a CGU ainda conhecer a identidade dos requerentes não garante a segurança total do pedido, segundo Baptista. Especialistas apontam ainda para a necessidade de um órgão de controle independente para monitorar a qualidade das respostas.

Apesar desses fatores, Baptista percebe que, desde que a LAI foi sancionada, em 2012, houve melhoria na percepção do público sobre a importância da transparência governamental. “Lembro que pedi uma informação e os servidores imprimiram, carimbaram, assinaram, digitalizaram e me mandaram”, diz. “Para mim, o maior avanço que tivemos é a mudança cultural entre servidores público e cidadãos”.

Nota da editora: a colaboradora do Centro Knight Alessandra Monnerat, que escreveu este post, também trabalha para o jornal O Estado de S. Paulo, citado neste texto.

Fonte: Jounalism in the Americas

 

Criar o próprio algoritmo valoriza o serviço e o negócio

Desenvolver o próprio algoritmo pode ser um diferencial para o serviço que uma empresa oferece? Especialistas dizem que sim. “Pode ser grande diferencial, porque mantém o empreendedor que desenvolve a ferramenta mais próximo do cliente para que possa fazer alterações e adaptações caso a caso. O risco de usar algoritmo pronto é trabalhar com uma solução engessada”, diz o especialista em análise de big data (pela FIA/USP) e em internet das coisas (pela Poli/USP) César Cavini Almiñana, que atua na consultoria Ekantika.

Segundo ele, é vantajoso criar o próprio algoritmo quando o modelo de negócio é voltado a um objetivo bastante específico. “Trabalhar com algoritmo pronto e genérico resolve os problemas, só que de forma mediana, enquanto o algoritmo próprio proporciona precisão e melhor desempenho.” Almiñana afirma que, até do ponto de vista de investimento, a empresa que detém o próprio algoritmo tem menos barreiras. “O motivo é que a inteligência e tecnologia estão dentro de casa e o empreendedor não é refém de terceiros.”

Professor de pós-graduação em pequenas e médias empresas e do MBA gestão empresarial na Fia/USP, Alexandre Del Rey considera que é vantajoso quando se tem equipe técnica muito capaz, que consegue ter compreensão aprofundada de um determinado mercado. “Criar algoritmos que resolvem problemas e necessidades importantes de um segmento é ótimo caminho para o sucesso.”

Ambos dizem, no entanto, que utilizar algoritmos desenvolvidos por grandes empresas de tecnologia, para criar uma arquitetura única e diferenciada, também é estratégia assertiva.

César Cavini Almiñana, consultor da Ekantika.
Foto: Beatriz Ribas/Divulgação

Antes de optar por um dos dois caminhos, o consultor diz que os empreendedores devem responder perguntas como: vou fazer um algoritmo melhor que o que já está disponível no mercado? Quanto tempo vai demorar? Vai valer à pena? Qual será o investimento?

“A falta de flexibilidade é um erro de muitos empreendedores, por resultar em soluções engessadas. Muitos desenvolvem algoritmo robusto, mas tão engessado, que adaptar uma linha do código vira um inferno.”

Construir uma ferramenta flexível foi o que estimulou Tom Canabarro a criar o próprio código e fundar a Konduto, que oferece serviços de prevenção a fraude de cartão de crédito nas lojas de e-commerce.

“Como desenvolvedor posso ajustar a solução. Essa é a principal vantagem. Trabalhar com uma ferramenta pronta deixa o empreendedor travado, ele não pode oferecer coisas novas. Ao mesmo tempo, ter a propriedade intelectual do algoritmo é uma grande força na valorização da empresa, porque na hora de levantar investimento, uma das primeiras perguntas é se o algoritmo é próprio ou se tem muitas coisas de terceiros.”

O empresário também alerta quem quer entrar nesse mercado quanto à robustez da solução. “Muita gente faz um sistema robusto para aguentar milhões de dados, sendo que no começo não terá quase nada. É melhor focar na eficiência e no resultado do algoritmo, depois pode resolver o problema de suportar mais volume. Nós seguimos esse caminho e deu certo.”

Segundo ele, no início, o mais difícil foi não ter base de dados para forçar o algoritmo a identificar o que é fraude e o que não é, para que o robô pudesse aprender a diferenciar um do outro. “Foi difícil conseguir o primeiro cliente, pois não tínhamos nada para provar que a tecnologia funcionava.”

A conquista dependeu de muita sorte e de um jogo aberto. “Falamos que estávamos começando e oferecemos a tecnologia de graça por três meses para testar. Nesse período, coletamos base de dados e fizemos ajustes. No final, o cliente gostou e nos contratou, o que facilitou a conquista de outros clientes.”

Tudo começou em janeiro de 2014. Ele e o sócio, Milton Tavares Neto, trabalharam um ano e meio com recursos próprios, depois receberam investimento anjo. Hoje, empregam 43 pessoas e atendem 200 clientes. Em 2019, querem atrair investimento para lançar novo produto, aumentar a força de vendas e entrar em outros países. “Temos clientes no México e Argentina, mas queremos atingir toda a América Latina.”

Fundadores da startup de reconhecimento facial FullFace, Danny Kabiljo e José Guerrero passaram dois anos desenvolvendo o próprio algoritmo. “Em 2015, fomos para o mercado”, diz Kabiljo, CEO da empresa. Até 2014, trabalharam com recursos próprios, depois, receberam investimento anjo e aporte do fundo Primatec. Hoje, a empresa tem 13 funcionários e até o final do ano terão 22.

Danny Kabiljo, CEO da FullFace. Foto: Laureni Fochetto

Kabiljo diz que desenvolveram diferenciais. “O primeiro foi vencer a necessidade de usar um hardware específico para fazer a identificação. Hoje, nosso algoritmo faz reconhecimento facial em smartphone, webcam ou câmera de alta resolução. Outras tecnologias estão atreladas a um equipamento específico. Quebramos essa barreira.
Entre as dificuldades, conta que quebraram a cabeça para definir o modelo comercial. “Nosso modelo principal é venda por consumo.”

Segundo ele, para desenvolver algoritmo o empreendedor tem de acreditar no projeto, porque muitos fecham as portas. “Também precisa acreditar no próprio potencial, criar diferenciais em relação às tecnologias globais, e desenvolver tecnologia estruturada para aguentar expansão internacional.”

Ele afirma que ter um serviço que se encaixa nas necessidades dos clientes facilita todo o processo. “Dominamos a tecnologia que é viva, está sempre sendo aprimorada. Tecnologia não pode ficar parada.”

A Zeeng, de André Saldanha e Eduardo Prange, foi criada quando eles perceberam dentre os projetos que desenvolviam, que havia vários clientes com demandas comuns. “Criamos uma plataforma para agrupar informações e entregá-las de forma consolidada, para que os clientes possam consumir os dados sem a necessidade de aguardar um projeto específico”, diz Saldanha.

A ideia surgiu em setembro de 2016 e o negócio foi lançado em março de 2017. Hoje, atende mais de 30 clientes que possuem equipes de marketing, além de agências de publicidade. “Com nossas informações eles monitoram suas campanhas na web, bem como a dos concorrentes.”

Ele explica que com o algoritmo dá para saber quando o concorrente lança algo novo, passa por uma crise, ou fez uma publicação que não foi bem vista pelos usuários, que estão fazendo críticas nas redes sociais. “Fornecemos informações e apontamentos que geram insights e permitem análises rápidas.”

André Saldanha, CTO da Zeeng. Foto: Luis Fernando Martins/Divulgação

Utilizar algoritmo próprio, segundo ele, reduz custos, porque usar os que são desenvolvidos pela IBM ou Google gera cobrança de centavos de dólar para cada utilização. “Quem utiliza algoritmo dessas grandes empresas tem de usar os parâmetros genéricos oferecidos por elas. Quando é próprio pode adaptá-lo de forma específica”, ressalta.

Conceito existe há séculos e surgiu com matemáticos

“Ao sair de casa, pegamos carteira, documentos, chave do carro, fechamos as janelas, trancamos a porta – e verificamos se, de fato, ficou trancada – para então entrar no carro. No final das contas, isso trata-se de uma sequência lógica, finita e ordenada de passos que é seguida de forma automática.

No mundo da computação e das linguagens de programação chamamos essa sequência de algoritmo. Para executar uma operação de multiplicação, por exemplo, as calculadoras executam algoritmo que calcula somas um determinado número de vezes. Um programa de computador é o que resultado de uma sequência de códigos e algoritmos trabalhando em harmonia.

O conceito de algoritmo existe há séculos e o seu uso pode ser atribuído a matemáticos gregos. Contudo, o início da formalização do conceito de algoritmo ocorreu apenas em 1936, com a Máquina de Turing, dispositivo que escrevia e interpretava símbolos durante a Segunda Guerra Mundial, criada pelo matemático Alan Turing”, explica o consultor César Almiñana.

‘Mercado é promissor e carente de boas soluções

Alexandre Del Rey, professor da FIA

Criar o próprio algoritmo é uma boa estratégia?
Pode ser uma boa estratégia para empresas que conhecem muito do negócio e das regras de negócio do segmento que pretende atender. Essas regras são fontes de vantagem competitiva. O algoritmo de busca do Google, de roteirização do Waze, de recomendação de filmes da Netflix e de precificação da Amazon, por exemplo, são e foram muito importantes para o sucesso dessas empresas.

Em que caso é mais vantajoso criar o algoritmo?
Criar seu próprio algoritmo pode ser vantajoso quando se tem uma equipe técnica muito capaz, que consegue conversar com pessoas com a compreensão muito aprofundada daquele mercado. Desenvolver algoritmos que resolvem problemas e necessidades importantes para uma determinada indústria é um ótimo caminho para o sucesso.

O que o empreendedor deve avaliar antes de definir se irá criar o negócio em plataforma própria ou não?
Ter plataforma própria não necessariamente significa usar o próprio algoritmo. Criar a sua própria plataforma traz o desafio adicional de ter que gerar público para aquela plataforma. Muitos empreendedores comercializam seus algoritmos por meio de outras plataformas bem conhecidas como a AWS da Amazon, a Bluemix da IBM, para citar algumas.

Ser detentor do código dificulta ou facilita a entrada no mercado?
Na verdade, criar o próprio algoritmo não é muito diferente do que criar novos produtos e serviços. Primeiro é preciso criar um algoritmo que consiga tratar de maneira efetiva necessidades e desejos de um determinado mercado. Depois disso é preciso que este algoritmo passe a ser conhecido por este mercado. O desafio adicional encontrado é que são poucas as empresas com pessoal capacitado para poder compreender e julgar qualidade tecnológica de algoritmos. Assim, a reputação de uma grande marca pode ajudar muito nestes casos.

O mercado nacional tem preconceito em adotar tecnologia interna?
Reputação é algo que se conquista. Startups brasileiras que desenvolveram o próprio algoritmo ou arquitetura de solução como a 99Taxi, a QuintoAndar, a Inloco Mídia e a Oiti Tech conseguiram alcançar bastante sucesso. A qualidade das soluções normalmente prevalece. Veja o caso da 99Taxi, que entrou no mercado para disputar com gigantes como a Uber e a Cabify. Isso é muito relativo. Acredito que o mercado tem preconceito com soluções ruins.

Que avaliação faz do momento pelo qual está passando esse mercado?
Empreender no desenvolvimento de algoritmo é um mercado muito promissor. Há uma carência enorme de boas soluções em várias indústrias de diversos segmentos. Do outro lado, como ainda há muita dificuldade por parte dos tomadores de decisão em compreender todo o potencial destas novas tecnologias disruptivas que envolvem inteligência artificial e blockchain, por exemplo, há o desafio adicional de educar o mercado e de mudar a mentalidade.

Fonte: Estadão

Zeeng – Real Time Dashboard

É com MUITO orgulho que anunciamos o desenvolvimento do nosso módulo de gestão à vista para os nossos clientes, contemplando uma visão “Real Time” de indicadores chave para o sucesso das marcas no ambiente digital.

O que é gestão à vista?

A gestão à vista consiste em colocar as informações que têm relevância à disposição de seus gestores e colaboradores, favorecendo a tomada de decisões com base em dados atualizados e totalmente confiáveis, o que minimiza problemas e possíveis prejuízos oriundos da desinformação.

É muito importante, para que se entenda realmente o que é gestão à vista, que se note a necessidade de colocar apenas informações relevantes para cada setor, pois um volume de informações em excesso fará com que os colaboradores percam o interesse em acompanhar o quadro e isso não é o que queremos.

Outro fator muito importante é a definição dos indicadores a serem utilizados e como serão identificados, a fim de se facilitar a visualização das informações de forma rápida e eficaz.

Como funciona?

O nosso cliente define qual o volume de marcas que deseja visualizar de maneira consolidada em seus dashboards, a frequência de atualização e período a ser visualizado.

A seguir estão descritos os módulos disponíveis no Zeeng – Dashboard Real Time:

Share of Voice

Esta perspectiva aborda o que a marca fala para o público no ambiente das mídias sociais; traz a quantificação do volume de posts promovidos pela empresa e marcas competidoras, no intuito de indicar a participação de cada player no universo comunicacional dirigido ao consumidor.

Os dados serão apresentados igualmente em formato visual, permitindo rápida identificação do share of voice do mercado de atuação da empresa.

Tag Cloud

Esta perspectiva oferece uma visão sobre os principais termos associados à marca nos conteúdos postados pelo público, através da apresentação visual de uma tag cloud, em que o tamanho do termo apresentado representa a quantidade de vezes em que é mencionado junto à cada uma das marcas de interesse do cliente.

SOCIAL ENGAGEMENT

Apresentação comparativa do engajamento da empresa x competidores nas redes sociais (Facebook, Twitter, Instagram e Youtube), com apresentação dinâmica dos posts de maior destaque por canal.

Ficou interessado?

Para maiores informações sobre o módulo Zeeng – Real Time Dashboard entre em contato com o nosso líder em Customer Success, Marcelo Barros, através do e-mail: marcelo.barros@zeeng.com.br 😀