Segurança e acesso a dados preocupam times de analytics

Estudo da MicroStrategy mapeia o estágio da incorporação de boas práticas de gestão de dados em empresas no Brasil e no mundo

Cerca de 78% dos profissionais brasileiros que trabalham com dados e ferramentas de analytics acreditam que suas empresas estão utilizando tecnologias de dados de maneira efetiva. Para 75% deles, estas tecnologias tem cumprido um papel importante na transformação digital de suas organizações.

Os dados são da MicroStrategy (MSTR), empresa que oferece plataformas de análise de dados e softwares de mobilidade ao mercado. A companhia realizou um estudo com 500 profissionais das áreas de analytics e BI para descobrir o estágio da adoção de práticas da analytics nas empresas.

A pesquisa Global State of Enterprise Analytics foi realizada em abril com respondentes da Alemanha, Reino Unido, Estados Unidos e Brasil, em parceria com a consultoria de pesquisa Hall & Partners. Os participantes representam empresas com entre 250 e 20 mil funcionários.

Segundo 62% dos brasileiros que participaram da pesquisa, a principal aplicação de ferramentas de analytics está na orientação de estratégias. Já 57% buscam usar dados para sistematizar processos e otimizar custos. Mais da metade usa dados para monitorar o desempenho financeiro da empresa e gerenciar riscos de mercado. Usar dados para desenvolver produtos e atrair clientes, por sua vez, está no escopo de 45% dos profissionais brasileiros.

Ainda, 6 em cada 10 profissionais brasileiros dizem obter mais eficiência e produtividade dos processos de trabalho com o apoio de dados. As áreas que mais fazem uso de ferramentas de analytics são TI, finanças e Serviços ao Consumidor.

Quando questionados sobre as tendências que terão os impactos mais significativos sobre as práticas de analytics nos próximos cinco anos, os entrevistados brasileiros ranquearam tecnologias de cloud computing, big data e inteligência artificial como as mais relevantes.

Profissionalização dos departamentos de dados

A pesquisa identificou que 62% das empresas brasileiras já contam com um chief data officer (CDO) e 17% estão considerando criar uma posição voltada para a gestão de dados. De forma a otimizar seus processos de gestão, 46% consideram migrar toda sua estrutura de TI para a nuvem e 80% planejam investir mais em analytics nos próximos anos. Ainda, 77% das empresas brasileiras planejam investir na contratação de talentos com especialidades analíticas em um futuro próximo.

Desafios

Apesar do olhar atento às disciplinas ligadas a dados, muitas empresas ainda esbarram em problemas que impedem a consolidação de práticas de analytics. De acordo com 48% dos brasileiros participantes, a principal barreira para o uso de data e analytics em suas empresas é a preocupação com a segurança de dados. Em segundo lugar, segundo 30% dos respondentes, está a falta de treinamento para os profissionais, e, em terceiro, o acesso limitado aos dados da organização, conforme apontaram 27% dos participantes.

O uso de soluções tecnológicas pouco amigáveis ao trabalho com dados é um empecilho para 23% dos profissionais. Além disso, 20% acreditam que suas empresas não possuem uma estratégia orientada para dados e que o uso de analytics não é uma prioridade para os executivos.

Fonte: Meio & Mensagem

Microsoft utiliza inteligência artificial para solucionar problemas ambientais

O meio ambiente há muito tempo sofre com os resultados das atitudes humanas. Com isso em mente, a Microsoft desenvolveu o AI For Earth, programa que auxilia para a busca de soluções sustentáveis por meio da inteligência artificial.

Focado em quatro áreas fundamentais para a saúde do planeta, sendo estas: mudanças climáticas, diminuição da biodiversidade, escassez de água e desempenho agrícola, a novidade impulsionou 140 projetos em 45 países, sendo um deles o Conservation Meetrics. Nele, a IA é utilizada para impedir a caça ilegal de elefantes africanos e o contrabando do marfim, uma vez que sua população diminuiu cerca de 30% nos últimos sete anos devido à atividades ilícitas relacionadas.

A Microsoft parece otimista com a iniciativa. O líder da AI For Earth, Lucas Joppa, afirma “os problemas ambientais são criados por pessoas e as soluções para eles também serão. A inteligência artificial permite capacitar os cidadãos a encontrar soluções mais rápido”.

Fonte: Adnews

 

10 tendências tecnológicas para 2019, segundo o Gartner

Blockchain, realidade aumentada e computação quântica são algumas das promessas que o mercado deve ficar de olho

Gartner destacou as principais tendências tecnológicas que as organizações precisam explorar em 2019. A consultoria define uma tendência tecnológica estratégica como a que apresenta um potencial disruptivo e que está começando a sair de um estado emergente para um impacto e uso mais amplo, ou que estão crescendo rapidamente com um alto grau de volatilidade e atingindo pontos de inflexão nos próximos cinco anos.

“Intelligence Digital Mesh tem sido um tema consistente nos últimos dois anos e continua como um grande direcionador até 2019. As tendências em cada um desses três temas são um ingrediente chave na condução de um processo contínuo de inovação como parte de uma estratégia ContinuousNEXT ”, disse David Cearley , vice-presidente do Gartner.

“Por exemplo, inteligência artificial (AI) na forma de coisas automatizadas e inteligência aumentada está sendo usada junto com IoT e computação de borda para entregar espaços inteligentes altamente integrados. Esse efeito combinatório de múltiplas tendências se unindo para produzir novas oportunidades e gerar novas rupturas é uma marca registrada das 10 principais tendências tecnológicas estratégicas do Gartner para 2019”, acrescenta.

Conheça as dez tendências:

Coisas autônomas

Coisas autônomas, como robôs, drones e veículos autônomos, usam AI para automatizar funções previamente executadas por humanos. Sua automação vai além da fornecida por modelos de programação rígidos – eles exploram a AI para fornecer comportamentos avançados que interagem mais naturalmente com o ambiente e com as pessoas.

“À medida que as coisas autônomas proliferam, esperamos uma mudança das coisas inteligentes autônomas para um enxame de coisas inteligentes colaborativas, com múltiplos dispositivos trabalhando juntos, independentemente das pessoas ou com a contribuição humana. Por exemplo, se um drone examinasse um campo grande e descobrisse que estava pronto para a colheita, ele poderia despachar uma ‘colheita autônoma’. Ou no mercado de entregas, a solução mais eficaz seria usar um veículo autônomo para mapear a área alvo. Robôs e drones a bordo do veículo poderiam garantir a entrega final do pacote”, diz o executivo.

Augmented Analytics

O Augmented Analytics (ou analytics aumentado) concentra-se em uma área específica de inteligência aumentada, usando o machine learning para transformar como o conteúdo analítico é desenvolvido, consumido e compartilhado. Os recursos analíticos aumentados avançarão rapidamente para a adoção principal, como um recurso importante de preparação de dados, gerenciamento de dados, análise moderna, gerenciamento de processos de negócios, mineração de processos e plataformas de ciência de dados.

Insights automatizados de análises aumentadas também serão incorporados em aplicativos corporativos – por exemplo, os departamentos de RH, finanças, vendas, marketing, atendimento ao cliente, compras e gerenciamento de ativos – para otimizar as decisões e ações de todos os funcionários dentro de seu contexto, não apenas aqueles de analistas e cientistas de dados. A análise aumentada automatiza o processo de preparação de dados, geração de insights e visualização de insights, eliminando a necessidade de cientistas de dados profissionais em muitas situações.

“Isso levará à ciência de dados de cidadãos, um conjunto emergente de recursos e práticas que permite aos usuários cuja tarefa principal está fora do campo de estatística e análise extrair insights preditivos e prescritivos dos dados. Até 2020, o número de cientistas de dados de cidadãos crescerá cinco vezes mais rápido que o número de cientistas especialistas em dados. As organizações podem usar cientistas de dados de cidadãos para preencher a lacuna de conhecimento em ciência de dados e aprendizado de máquina causada pela escassez e pelo alto custo dos cientistas de dados”, explica Cearley.

Desenvolvimento orientado por AI

O mercado está mudando rapidamente de uma abordagem em que os cientistas de dados profissionais devem se associar aos desenvolvedores de aplicativos para criar a maioria das soluções aprimoradas por AI para um modelo em que o desenvolvedor profissional possa operar sozinho usando modelos predefinidos como serviço. Isso fornece ao desenvolvedor um ecossistema de algoritmos e modelos de AI, bem como ferramentas de desenvolvimento adaptadas para integrar recursos e modelos de AI a uma solução.

Outro nível de oportunidade para o desenvolvimento de aplicativos profissionais surge à medida que AI é aplicada ao próprio processo de desenvolvimento para automatizar várias funções de ciência de dados, desenvolvimento de aplicativos e testes. Em 2022, pelo menos 40% dos novos projetos de desenvolvimento de aplicativos terão co-desenvolvedores de AI em sua equipe.

“Por fim, ambientes de desenvolvimento altamente avançados baseados em AI, automatizando aspectos funcionais e não-funcionais de aplicativos, darão origem a uma nova era do ‘desenvolvedor de aplicativos cidadão’, onde não profissionais poderão usar ferramentas orientadas por AI para gerar novas soluções automaticamente. Ferramentas que permitem que profissionais não profissionais gerem aplicativos sem codificação não são novidade, mas esperamos que sistemas com tecnologia AI ofereçam um novo nível de flexibilidade ”, disse Cearley.

Gêmeos digitais

Um gêmeo digital é uma representação digital de uma entidade ou sistema do mundo real. Até 2020, o Gartner estima que haverá mais de 20 bilhões de sensores conectados e terminais e gêmeos digitais existirão para potencialmente bilhões de coisas. As organizações irão implementar gêmeos digitais e evoluirão ao longo do tempo, melhorando sua capacidade de coletar e visualizar os dados corretos, aplicar as análises e regras e responder efetivamente aos objetivos de negócios.

“Um aspecto da evolução dos gêmeos digitais que vai além da IoT será empreendimentos implementando gêmeos digitais de suas organizações (DTOs). Um DTO é um modelo de software dinâmico que se baseia em dados operacionais ou outros para entender como uma organização operacionaliza seu modelo de negócios, se conecta com seu estado atual, implementa recursos e responde a mudanças para entregar o valor esperado ao cliente. Os DTOs ajudam a impulsionar a eficiência nos processos de negócios, além de criar processos mais flexíveis, dinâmicos e responsivos, que podem reagir às mudanças de condições automaticamente”, frisa o executivo.

Borda potencializada

A borda se refere aos dispositivos de ponto final usados ​​pelas pessoas ou incorporados. A computação de borda (edge computing) descreve uma topologia de computação na qual o processamento de informações e a coleta e entrega de conteúdo são colocados mais próximos desses pontos de extremidade. Ela tenta manter o tráfego e o processamento local, com o objetivo de reduzir o tráfego e a latência.

No curto prazo, a borda está sendo impulsionada pela IoT e a necessidade de manter o processamento próximo ao final, e não em um servidor de nuvem centralizado. No entanto, em vez de criar uma nova arquitetura, a computação em nuvem e a computação de borda evoluirão como modelos complementares, com serviços em nuvem sendo gerenciados como um serviço centralizado executando não apenas em servidores centralizados, mas em servidores distribuídos no local e nos próprios dispositivos de borda.

Nos próximos cinco anos, chips de AI especializados, além de maior poder de processamento, armazenamento e outros recursos avançados, serão adicionados a uma ampla gama de dispositivos de borda. A extrema heterogeneidade desse mundo de IoT integrado e os longos ciclos de vida de ativos, como sistemas industriais, criarão desafios significativos de gerenciamento. À medida que o 5G amadurece, o ambiente de computação de borda em expansão terá uma comunicação mais robusta para os serviços centralizados. O 5G fornece menor latência, maior largura de banda e um aumento dramático no número de nós (endoints de borda) por km2.

Experiência imersiva

As plataformas de conversação estão mudando a maneira como as pessoas interagem com o mundo digital. A realidade virtual (VR), a realidade aumentada (AR) e a realidade mista (MR) estão mudando a maneira pela qual as pessoas percebem o mundo digital. Essa mudança combinada nos modelos de percepção e interação leva à experiência imersiva do usuário no futuro.

“Com o tempo, passaremos do pensamento sobre dispositivos individuais e tecnologias de interface de usuário fragmentada (UI) para uma experiência multicanal e multimodal. A experiência multimodal conectará pessoas com o mundo digital em centenas de dispositivos periféricos que os cercam, incluindo dispositivos de computação tradicionais, wearables, automóveis, sensores ambientais e aparelhos de consumo”, disse Cearley. “A experiência multicanal usará todos os sentidos humanos, bem como os sentidos avançados do computador (como calor, umidade e radar) nesses dispositivos multimodais. Esse ambiente multi-experiência criará uma experiência de ambiente na qual os espaços que nos cercam definem ‘computador’ em vez dos dispositivos individuais. Com efeito, o ambiente é o computador”.

Blockchain

Blockchain promete remodelar as indústrias, trazendo confiança, fornecendo transparência e reduzindo o atrito entre os ecossistemas de negócios, potencialmente reduzindo os custos, diminuindo os tempos de liquidação das transações e melhorando o fluxo de caixa. Hoje, a confiança é depositada em bancos, câmaras de compensação, governos e muitas outras instituições como autoridades centrais com a “versão única da verdade” mantida de forma segura em seus bancos de dados. O modelo de confiança centralizada adiciona atrasos e custos de fricção (comissões, taxas e o valor do dinheiro) às transações. O conceito de blockchain fornece um modo de confiança alternativo e elimina a necessidade de autoridades centrais em arbitragem de transações.

As atuais tecnologias e conceitos de blockchain são imaturas, mal compreendidas e não comprovadas em operações de negócios em escala de missão crítica. Isto é particularmente verdade com os elementos complexos que suportam cenários mais sofisticados. “Apesar dos desafios, o significativo potencial de interrupção significa que CIOs e líderes de TI devem começar a avaliar blockchain, mesmo que não adotem as tecnologias agressivamente nos próximos anos”, alerta.

Muitas iniciativas blockchain hoje não implementam todos os atributos da ferramenta – por exemplo, um banco de dados altamente distribuído. Essas soluções inspiradas em blockchain são posicionadas como um meio de obter eficiência operacional, automatizando processos de negócios ou digitalizando registros. Eles têm o potencial de aprimorar o compartilhamento de informações entre entidades conhecidas, bem como melhorar as oportunidades de rastreamento de ativos físicos e digitais.

No entanto, essas abordagens perdem o valor da interrupção real do blockchain e podem aumentar o aprisionamento do fornecedor. As organizações que escolherem essa opção devem entender as limitações e estar preparadas para passar a soluções completas de blockchain ao longo do tempo e que os mesmos resultados possam ser obtidos com o uso mais eficiente e ajustado das tecnologias não-bloqueadas existentes.

Espaços inteligentes

Um espaço inteligente é um ambiente físico ou digital em que os seres humanos e os sistemas com tecnologia interagem em ecossistemas cada vez mais abertos, conectados, coordenados e inteligentes. Múltiplos elementos – incluindo pessoas, processos, serviços e coisas – se reúnem em um espaço inteligente para criar uma experiência mais imersiva, interativa e automatizada para um conjunto-alvo de pessoas e cenários do setor.

“Essa tendência vem se aglutinando há algum tempo em torno de elementos como cidades inteligentes, locais de trabalho digitais, residências inteligentes e fábricas conectadas. Acreditamos que o mercado está entrando em um período de entrega acelerada de espaços inteligentes robustos, com a tecnologia se tornando parte integral de nossas vidas diárias, seja como funcionários, clientes, consumidores, membros da comunidade ou cidadãos”, disse Cearley.

Ética e privacidade digital

A ética e a privacidade digitais são preocupações crescentes para indivíduos, organizações e governos. As pessoas estão cada vez mais preocupadas sobre como suas informações pessoais estão sendo usadas por organizações nos setores público e privado, e a reação só aumentará para organizações que não estejam abordando proativamente essas preocupações.

“Qualquer discussão sobre privacidade deve ser fundamentada no tópico mais amplo da ética digital e na confiança de seus clientes, constituintes e funcionários. Embora a privacidade e a segurança sejam componentes fundamentais na construção da confiança, a confiança é, na verdade, mais do que apenas esses componentes . Confiança é a aceitação da verdade de uma declaração sem evidência ou investigação. Em última análise, a posição de uma organização sobre a privacidade deve ser impulsionada por sua posição mais ampla sobre ética e confiança. Mudar de privacidade para ética leva a conversa para além de ‘estamos em conformidade’ em direção a ‘estamos fazendo a coisa certa’.

Computação quântica

A computação quântica é um tipo de computação não-clássica que opera no estado quântico de partículas subatômicas (por exemplo, elétrons e íons) que representam informações como elementos denotados como bits quânticos (qubits). A execução paralela e a escalabilidade exponencial dos computadores quânticos significa que eles se sobressaem com problemas muito complexos para uma abordagem tradicional ou onde os algoritmos tradicionais demorariam muito para encontrar uma solução.

Indústrias como as organizações automotivas, financeiras, de seguros, farmacêuticas, militares e de pesquisa têm mais a ganhar com os avanços na computação quântica. Na indústria farmacêutica, por exemplo, a tecnologia poderia ser usada para modelar interações moleculares em níveis atômicos para acelerar o tempo de comercialização de novos medicamentos para tratamento de câncer ou poderia acelerar e prever com mais precisão a interação de proteínas levando a novas metodologias farmacêuticas.

Fonte: It Forum 365

Python seria a melhor linguagem de programação para os iniciantes?

O Python é a melhor linguagem de programação para quem quer se iniciar na área. Além de ser um requisito em desenvolvedores de grandes empresas, ela permite que você trabalhe com data science e machine learning, e em muitas outras áreas que hoje em dia são essenciais nas organizações de grande porte.

Mas o que leva o Python a ser uma linguagem de programação para iniciantes? A resposta é: Python é uma linguagem ágil, fácil e objetiva, o que democratiza seu ensino e a faz ser procurada cada vez mais. É uma linguagem orientada a objetos criada em 1991 e a sua simplicidade é sua maior característica. Conta com um modelo comunitário de desenvolvimento, que é aberto e sem fins lucrativos.

É também uma linguagem para todos os públicos: crianças, universitários, desenvolvedores, entusiastas da programação etc. Se você tem um projeto a ser desenvolvido, precisa de uma ajudinha de linguagens de programação, mas não sabe muita coisa sobre o assunto, o Python é o que você procura.

Por ser uma linguagem de alto nível, o Python não requer conhecimentos de outras linguagens para que se possa trabalhar com ele. A lógica da programação pode ser aplicada diretamente ao código, o que faz com que seu aprendizado seja simples e rápido. É, também, uma linguagem que requer menos código para concluir tarefas que são básica. Com apenas uma linha de código, você pode determinar uma sequência e montar uma lista. Python é uma linguagem de fonte livre e aberta, com uma grande comunidade de apoio para seus desenvolvedores. Se surgir alguma dúvida, você pode consultá-los, ou conferir esse curso de Python indicado para iniciantes​!

Apesar de sua simplicidade, o Python pode ser aplicado em projetos robustos. Back-end de sistemas web, ciência de dados, machine learning, simulações etc. são alguns exemplo de projetos em que o Python pode marcar presença. Os setores de tecnologia de empresas como Google, YouTube, Disney e IBM estão repletos de funcionaŕios que dominam o Python. Não é à toa que são as empresas responsáveis pelo crescimento desse mercado – e é justamente por isso que você deve dar uma chance para essa linguagem.

Para quem não quer encontrar regras difíceis de serem entendidas e executadas, o Python também não decepciona. A sintaxe dessa linguagem é fácil de aprender, e um comando termina quando uma linha acaba. Isso significa que as exigências do Python são reduzidas, e que uma linha de código é suficiente para a realização de tarefas que exigem mais de três linhas de código em outras linguagens. Assim, o programador tem menos chances de errar.

Por ser uma linguagem interpretada, e não compilada, o Python tem seu código-fonte lido por um interpretador e convertido em código executável por uma máquina. Por não ser processada por um compilador para um formato específico, a linguagem roda em diferentes plataformas – basta ter um interpretador para processar o código. Isso torna o Python uma linguagem multiplataforma. Para aprender desenvolver aplicações comerciais para diferentes tipos de plataforma, clique aqui​!

Já está mais do que claro que Python é a linguagem perfeita para quem quer começar a se aventurar no mundo da programação, certo? Fácil de aprender, multiplataforma e ainda conta com uma comunidade abrangente, que pode te ajudar no desenvolvimento de projetos e tirar todas as suas dúvidas. A comunidade é feita por pessoas que também usam o Python e que, por isso, podem te auxiliar.

E se você pretende começar agora mesmo a aprender tudo sobre Python, dê uma olhada nas indicações de cursos online e completos para começar a sua jornada:
Python para Data Science e Machine Learning
Programação orientada a objetos com Python
Python Completo
Python para Android, iOS, Windows, Linux e Mac

 

 

Inteligência artificial deve movimentar R$ 730 mi no Brasil em 2018

Inteligência artificial deve movimentar R$ 730 milhões (US$ 180 mi) este ano, segundo estimativas do Sebrae em relatório sobre o tema. Ainda segundo um novo levantamento da IBM, o Brasil é o segundo país que mais utiliza o Watson, motor de IA da empresa. Mas, afinal, o que faz da ferramenta tão preciosa para o mercado?

“As empresas brasileiras já entenderam que têm condições de utilizar a IA para melhorar seus negócios. Não são apenas as grandes, muitas startups utilizam o Watson”, destaca o líder de vendas da ferramenta no Brasil, Roberto Celestino. Ao todo, a companhia aponta ao menos 20 tipos de indústrias que trabalham com o Watson, entre grandes bancos até sistemas de educação e pequenas empresas.

Uma das startups, por exemplo, é a I.Systems, situada em Campinas (SP). Uma das funções da empresa é fornecer soluções de produção usando inteligência artificial, principalmente para gestão de energia industrial. Segundo um dos fundadores da companhia, Igor Santiago, a IA tem capacidade de reconhecer os locais que precisam mais de energia de acordo com a produção. Por exemplo, se um setor está “a pleno vapor”, o sistema automaticamente aumenta a geração de energia nas caldeiras direcionada para o setor. “O nosso sistema fica observando quando são ligados e desligados os equipamentos. Com isso conseguimos aumentar a quantidade de energia gerada pela caldeira quando prevemos que uma máquina vai entrar em operação”, explica Santiago. Isso é capaz de gerar uma economia, entre 2% a 10%, ele estima.

Outro setor que se beneficia de investimentos do tipo é do pinturas automotivas. A startup chamada Autaza criou uma IA capaz de reconhecer distorções micrométricas na pintura. Tal sistema está sendo implantado pela General Motors na fábrica da Chevrolet em São Caetano do Sul, no estado de São Paulo, e com isso, a expectativa é de que caia em 60% a necessidade de retrabalho de pintura, além de aumento da velocidade de inspeção.

Os sistemas funcionam com exemplo e aprendizagem. No caso do sistema de pintura, há um banco de dados em nuvem com uma série de exemplos de defeitos comparados com modelos perfeitos de pintura. Quando o sistema reconhece um micro defeito como os apontados no banco de dados, acusa o erro.

Embora a inteligência artificial possa ser eficiente em produção e análise de informações , ela ainda tem um problema, que é o direcionamento. A ferramenta só funciona em sistemas fechados, isto é, exige que todo o cenário e treinamento seja feito para uma determinada função e nada mais.

“A inteligência artificial não tem vontade própria. Ela deve fazer aquilo para o que ela foi treinada. No caso de Watson, se eu treinei para responder sobre determinado domínio de conhecimento, qualquer coisa diferente daquilo, ela não vai conseguir fazer”. O especialista ainda lembra que a IBM e as outras grandes desenvolvedoras têm um acordo ético. “O objetivo é que possamos desenvolver a tecnologia pensando na utilização de forma mais ética possível. Temos que trazer facilidade para o ser humano”, aponta Celestino.

Contudo, o que pode ser um limitante para o trabalho, também funciona como segurança para a possibilidade de a máquina “criar vida própria”.

Outra questão é sobre proteção de dados. Para o bom treinamento de uma IA, é preciso que muitas informações sejam colocadas em nuvem, algo na casa dos milhares ou milhões de dados que podem carregar segredos industriais.

Estes dois dados são apontados pela IBM como os principais desafios para o futuro da implantação de inteligência artificial na indústria.

Fonte: Canal Tech

Quantas marcas – e dados – cabem em um cérebro?

Desafio da publicidade diante das limitações cognitivas e das novas tecnologias foram tema de painel da Kantar Ibope Media

O consumidor sempre precisou estar no centro de qualquer estratégia de negócio. Essa necessidade, no entanto, passa a ser ainda mais latente quando analisamos os múltiplos desafios que o setor de consumo tem pela frente. Parte deles foi apresentada pela CEO da Kantar Ibope Media, Melissa Voguel, que fez um contraponto entre a forma como os dados e as múltiplas informações são capazes de aproximar empresas e pessoas e, ao mesmo tempo, ponderou como a capacidade cognitiva humana está apta a absorver esse oceano de impactos e informações diárias.

“Vivenciamos a terceira era do consumo, que será pautada por múltiplos desafios de capacidade. O primeiro é a economia, que já não cresce mais, em diversos mercados, como cresceu no passo. O segundo é a capacidade de recursos naturais, que é finita. E o terceiro desafio é a capacidade cognitiva do ser-humano. Todos somos expostos a uma quantidade infinita de dados, mas o cérebro continua sendo o mesmo”, ponderou Melissa.

Na opinião da executiva, a atividade de consumo será estruturada em três pilares: experiência, relacionamentos e algoritmos. Para fazer a diferença nesse mundo de conexões tão múltiplas e geração de dados mais rápida do que a capacidade humana de processa-los, terão lugar, segundo a CEO da Kantar Ibope no Brasil, as marcas que conseguiram transformar informações tecnológicas em conexões relevantes, estabelecendo relacionamentos sólidos com as pessoas.

Para entender como os líderes de agências estão lidando com esse desafio, Melissa convidou ao palco do Maximídia o CEO e chairman da WMcCann, Hugo Rodrigues, o CEO da J. Walter Thompson, Ezra Geld e o sócio e CCO da Suno, Guga Ketzer. Cada um dos líderes falou sobre os desafios de usar os dados em prol da conexão humana.

Na opinião de Hugo Rodrigues, é preciso primeiramente aceitar que é impossível entender e prever as novas lógicas de consumo. “Estamos menos fieis, que tem condições está mais exigente e isso se deve a um aumento incrível da oferta que temos. Hoje temos mais ofertas e opções que jamais tivemos e a tecnologia, com sua contínua reinvenção, amplia esse cenário. A capacidade de reinvenção da tecnologia, hoje, é maior do que nossa capacidade de absorção. As marcas têm de ser humildes para entender que isso fará com que elas tenham consumidores menos fieis”, analisou o CEO e chairman da WMcCann.

Guga Ketzer ressaltou que todo o avanço tecnológico não pode afastar nunca o caráter humano da atividade. “A base da comunicação é sobre o ser humano e entende-lo passa por compreender um pouco de seu processo cognitivo. Não temos noção da rela capacidade que temos de pegar esses dados e transformá-los em outra coisa. O que acho é que vivemos um processo de alimentação via feed, que nos alimenta o tempo todo. E aí, vale um questionamento: até que ponto um algoritmo pode decidir o que ele acha que eu quero ver? O que tornou o ser humano um animal não-convencional foi, entre outras habilidades, a de caçar e criar instrumentos de cala. Quando só alimentamos os consumidores, será que estamos dando exatamente o que eles querem?”, questionou Guga.

Ezra Geld alertou sobre a possibilidade de a indústria estar, de certa forma, repetindo conceitos anteriores. “A gente vem se valendo de ferramentas que, aparentemente, nos ajudam a gerar relevância. Entendemos que isso nos permite chegar a targets mas não percebemos que isso substituiu o conceito de interrupção que já existia antes”, destacou o líder da J. Walter Thompson.

Fonte: Meio e Mensagem

Só IA e big data para lidar com a informação disponível, diz médica

Tecnologia requer dados bem coletados e integração nacional entre os sistemas de saúde

Graças à crescente informatização da saúde e ao volume gigantesco de dados clínicos e genéticos disponíveis, o uso de técnicas de inteligência artificial é parte de uma revolução no tratamento do câncer. No entanto, aspectos regulatórios, tecnológicos e culturais importantes ainda são uma barreira para a eficiência e a adoção mais ampla destas técnicas.

A adoção da inteligência artificial e o uso de big data na luta contra a doença foram discutidos em um painel na quarta edição do seminário Tecnologia Contra o Câncer, promovido pela Folha, com patrocínio do laboratório Roche e apoio do Hospital Sírio-Libanês e da farmacêutica Abbvie.

As duas tecnologias estendem os limites impostos pelo cérebro humano e por sistemas de computação tradicional, ambos incapazes de lidar com toda a informação disponível. Segundo Mariana Perroni, médica e coordenadora de Healthcare Transformation, da IBM, dados mostram que um oncologista precisaria estudar cerca de 20 horas por dia para se manter atualizado na literatura de sua área, diz ela.

Perroni deu um exemplo de como a inteligência artificial encurta processos e preços: a leitura do sequenciamento genético de um paciente com câncer caiu de 160 horas (mais ou menos uma semana) para 15 minutos e por um custo 75% menor.

Francisco Sapori, cientista da computação e especialista da área de Health da Microsoft, mencionou outro caso em que a tecnologia da informação conjugou maior rapidez com menor custo. O processo de demarcação da região a receber radioterapia, que normalmente demora de 40 minutos até duas horas, foi reduzido a alguns segundos e poucos cliques.

“A gente já vê sinais de aprendizado da própria ferramenta, que passa a perceber relações que nem na literatura estão”, declarou Pedro Meneleu, superintendente-geral do Instituto do Câncer do Ceará (ICC), relatando o uso bem-sucedido do sistema da IBM Watson for Oncology.

Segundo Meneleu, um estudo preliminar retrospectivo com 200 pacientes revelou que, em 77% dos casos, o computador apontava o tratamento efetivamente adotado pelos especialistas. “Meu índice pessoal não chegaria a 30%.”

Paulo Hoff, diretor-geral do Instituto do Câncer de São Paulo Octavio Frias de Oliveira (Icesp), concorda com o potencial das ferramentas de inteligência artificial, mas ressalva que elas não funcionam sem dados bem coletados ou integração nacional entre os sistemas de saúde.

“No nosso estado [SP], menos da metade dos serviços que tratam câncer está informatizada. Nós estamos muito longe da promessa de incluir os dados de todos os pacientes nessa análise.”

Outro aspecto essencial para o sucesso das novas tecnologias é a interação entre computador e especialista, uma opinião compartilhada por todos os participantes do painel.

“Hoje, esses sistemas servem muito mais como uma ferramenta de apoio a um bom médico e uma ferramenta que possa garantir uma qualidade mínima de atendimento onde o especialista não está disponível”, declarou Hoff.

Meneleu, do Instituto do Câncer do Ceará, enfatiza o mesmo. “Há um reforço absurdo em algumas coisas que a gente já estava enxergando e medindo de maneira precária. Ganhamos tempo.”

Segundo os participantes, o fluxo de informação clínica, que demanda esforços na operabilidade entre sistemas; atualmente incompatíveis, e a notificação compulsória dos casos de câncer seriam essenciais para melhorar o diagnóstico por inteligência artificial.

Outro avanço fundamental é o uso de processamento de linguagem natural, que é a leitura direta, pelo computador, das anotações do médico. Isto já está em uso em iniciativas da Microsoft, segundo Sapori, e tende a melhorar no futuro próximo.

Fonte: Folha

Tecnologia a serviço das cidades

A Semana Tecnológica da UniFil (Centro Universitário Filadélfia), realizada no incio do mês, reuniu especialistas para tratar de assuntos relacionados à Tecnologia da Informação. As cidades inteligentes* foram um dos temas. Exemplo mostrado no evento é Eindhoven, na Holanda, onde a gestão pública e uma indústria da área de TI fizeram parceria para substituir a iluminação da cidade por lâmpadas de LED, que são mais econômicas. Em troca, a empresa pode “monetizar” dados obtidos a partir de sensores instalados nos postes. Os sensores monitoram o tráfego de pontos específicos da cidade, e os dados podem ser utilizados para alimentar serviço que provê informações sobre vagas de estacionamento disponíveis na rua, por exemplo. Nesse modelo, chamada de mercado “multifacetado” pelos especialistas, todos ganham: indústria, gestão pública e cidadão.


No caso de Eindhoven**, a prefeitura não precisou gastar nada para trocar toda a iluminação pública e passou a ter uma conta de 30% do que pagava antes. A indústria passou a monetizar com os dados e permitiu que se oferecesse serviços de estacionamento inteligente, por exemplo: o cidadão sai de casa e já sabe em qual vaga vai parar. Gasta menos tempo na rua e polui menos a cidade.
A segurança pública costuma ser prioridade na implantação de projetos de cidades inteligentes. Um exemplo está em São Paulo, onde há uma iniciativa das subprefeituras de colaboração entre sinais de câmeras de condomínios fechados com um sistema de coleta de imagens públicas pela polícia.

*Cidades Inteligentes – Cidade criativa e sustentável, que faz uso da tecnologia em seu planejamento e solução de problemas urbanos

**Eindhoven – Quinta cidade mais populosa da Holanda e importante centro educativo e tecnológico do país

Você está usando a tecnologia em seu planejamento?

Fonte: Folha de Londrina

5 TEDs para ampliar a visão sobre o futuro da TI

Palestras mostram ensinamentos sobre tecnologias que são tendência e como usá-las de maneira assertiva

Mais do que atualização de ferramentas e forma de trabalhar, a evolução da tecnologia transforma a maneira como as pessoas interagem e afeta diretamente suas expectativas. Nesta seleção de cinco palestras dadas no TED, grandes nomes trazem provocações e conceitos importantes sobre o Futuro da TI, a serem considerados em qualquer esfera da vida humana.

1. Don’t fear intelligent machines. Work with them
Para tirarmos o máximo proveito da tecnologia, devemos enfrentar nossos medos. Segundo Garry Kasparov, um dos maiores jogadores de xadrez da história – e que perdeu uma partida memorável para o supercomputador Deep Blue, da IBM, em 1997 -, devemos superar esses medos para tirar o melhor proveito da humanidade. No TED, Kasparov compartilha sua visão de um futuro em que as máquinas nos ajudam a transformar nossos sonhos em realidade.

2. How to get empowered, not overpowered, by AI
Pesquisadores de Inteligência Artificial acreditam que os robôs vão superar os humanos em todas as tarefas e empregos nas próximas décadas, com um futuro restrito às leis da física e não de nossa inteligência. Nessa palestra, o físico e cientista do MIT Max Tegmark fala sobre ameaças reais e medidas concretas que devemos tomar para que o contato com a IA seja o melhor possível.

3. The rapid growth of the chinese internet and where it’s headed
Em um crescimento constante, a internet chinesa já apresenta mais usuários que as populações combinadas dos EUA, Reino Unido, Rússia, Alemanha, França e Canadá. Mesmo com imperfeições, a vida dos chineses foram elevadas por conta disso, segundo Gary Liu, CEO do South China Morning Post. Na palestra, Liu fala sobre o desenvolvimento da indústria de tecnologia chinesa e cita o uso de IA nas viagens de trem no país.

4. The mission to create a searchable database of earth’s surface
Will Marshall, do Planet, usa a maior frota de satélites do mundo para capturar imagens da terra todos os dias. No entanto, a novidade é o uso de inteligência artificial para indexar objetos do planeta ao longo do tempo. Basicamente, seria possível pesquisar navios, árvores, casas e outras coisas como quando se busca uma informação no Google. No TED, Marshall compartilha a visão sobre o funcionamento desse banco de dados e como isso pode se tornar um registro vivo de mudanças físicas no planeta. Segundo ele, a ideia é “dar a ferramenta para as pessoas e agir”.

5. How we need to remake the internet

No início da cultura digital, Jaron Lanier ajudou na criação de uma visão da internet como um bem público comum, onde a humanidade poderia compartilhar conhecimento. No entanto, foram criados dispositivos pessoais que controlam nossas vidas, monitoram os nossos dados e nos alimentam de estímulos. Nessa palestra, Lanier fala sobre um “erro trágico” da cultura digital e como podemos desfazê-lo.

 

 

Fonte: Oi It Forum 365