Páginas

quinta-feira, 14 de janeiro de 2016

BIG DATA ("MEGADADOS" EM PORTUGUÊS)






http://uptotech.com.br/lenovo-big-data-redes-sociais-consumidor/

https://pt.wikipedia.org/wiki/Big_data

 

Em tecnologia da informação, o termo Big Data ("megadados" em português) refere-se a um grande conjunto de dados armazenados. Diz-se que o Big Data se baseia em 5 V's : velocidade, volume, variedade, veracidade e valor.[1] '[2] [3] [4]
Big Data é um termo amplamente usado na atualidade para nomear conjuntos de dados muito grandes ou complexos, que os aplicativos de processamento de dados tradicionais ainda não conseguem lidar. Os desafios desta área incluem: análise, captura, curadoria de dados, pesquisa, compartilhamento, armazenamento, transferência, visualização e informações sobre privacidade dos dados. Este termo muitas vezes se refere ao uso de análise preditiva e de alguns outros métodos avançados para extrair valor de dados, e raramente a um determinado tamanho do conjunto de dados. Maior precisão nos dados pode levar à tomada de decisões com mais confiança. Além disso, melhores decisões podem significar maior eficiência operacional, redução de risco e redução de custos.
A análise adequada de tais grandes conjuntos de dados permite encontrar novas correlações, como por exemplo: "tendências de negócios no local, prevenção de doenças, combate à criminalidade e assim por diante". Cientistas, empresários, profissionais de mídia e publicidade e Governos regularmente enfrentam dificuldades em áreas com grandes conjuntos de dados, incluindo pesquisa na Internet, finanças e informática de negócios. Os cientistas, por exemplo, encontram limitações no trabalho de e-Ciência, incluindo Meteorologia, Genômica, conectonomia, simulações físicas complexas, além de pesquisa biológica e ambiental.
Tais conjuntos de dados crescem em tamanho em parte porque são cada vez mais frequentes e numerosos, uma vez que os dados atualmente podem ser reunidos por dispositivos baratos de informação, tais como equipamentos de sensoriamento móveis, aéreos (sensoriamento remoto), logs de software, câmeras, microfones, leitor (RFID) de rádio-frequência de identificação e redes de sensores sem fio. Desta forma, a capacidade per-capita tecnológico do mundo para armazenar informações praticamente tem dobrado a cada 40 meses, desde a década de 1980. A partir de 2012, foram criados a cada dia 2,5 hexabytes (2,5 × 1018) de dados. O desafio atual para as grandes empresas é determinar quem deve possuir grandes iniciativas de dados que atravessem toda a organização.
Sistemas de gerenciamento de banco de dados relacional, estatísticas da área de trabalho e pacotes de visualização, muitas vezes têm dificuldade em lidar com grandes volumes de dados, pois isto requer o trabalho de "software paralelo, rodando em dezenas, centenas ou até mesmo milhares de servidores". O que é considerado "Big Data" varia de acordo com as capacidades dos usuários e suas ferramentas. Assim, o que é considerado "grande" em um ano provavelmente se tornará usual nos anos posteriores. "Para algumas organizações, que têm acesso a centenas de gigabytes de dados pela primeira vez, isto pode desencadear uma necessidade de se reconsiderar as opções de gerenciamento de dados. Desta forma, na atualidade "o volume dos dados armazenados ou acessados torna-se uma consideração importante." [5]

Definição de Big Data

Resumido ao máximo a explicação, o Big Data é a quantidade enorme de informações existentes dentro de servidores de bancos de dados (Microsoft SQL Server + Oracle MySQL, por exemplo) que funcionam dentro de diversos servidores de rede de computadores (Intel, HP, IBM, Dell,Cisco, Samsung, etc) utilizando um sistema operacional de rede (Microsoft Windows Server 2008 + Red Hat Linux, por exemplo), interligados entre si, que hoje em dia funcionam dentro de um sistema operacional Cloud Computing (Microsoft Windows Azure, por exemplo), cujas informações são acessadas pela internet por pessoas utilizando um computador comum (notebook, por exemplo) ou celular (smartphone), para ler essas informações ou para incluir mais informações dentro do banco de dados via Cloud Computing.
Cada ano que passa, essa informação Big Data, tende a aumentar cada vez mais. Para garantir a segurança da informação, e para proteger a privacidade das informações, hoje em dia existem várias técnicas modernas (ITIL + COBIT, por exemplo). E a proteção que existe desde a década de 80, os antivírus (Symantec Norton, McAfee, AVG, Avast, etc), Hoje em dia o banco de dados SQL existe dentro dos servidores dos provedores de internet, que fornecem o serviço de uso disponível aos clientes.
2 Exemplos de Big Data: Youtube: todos os videos disponíveis online estão armazenados em diversos servidores de banco de dados SQL. Wikipédia: todos os textos disponíveis online estão armazenados em diversos servidores de banco de dados SQL.
  
Motivo da criação

O uso do Big Data pode ser uma arma contra os problemas socioeconômicos, como retratado no filme “Moneyball” (O homem que mudou o jogo) com o ator Brad Pitt, no qual o gerente de um time de beisebol usa o Big Data para reunir um time de primeira linha sem gastar muito. Com a globalização e o modelo “just in time” a expansão virtual se tornou necessária; a partir da ultima década de 2000 houve uma crescente de dados exponencial que já preocupam os especialistas pela falta de espaço. Segundo a IBM em 2008 foram produzidos cerca de 2,5 quintilhões de bytes todos os dias e surpreendentemente 90% dos dados no mundo foram criados nos últimos dois anos, decorrente a adesão das grandes empresas à internet, como exemplo as redes sociais, dados dos GPS, dispositivos embutidos e móveis.[6] (...)

*mais em:
 https://pt.wikipedia.org/wiki/Big_data




 

Publicado em: 17/10/2013

Dados, dados e mais dados: o fenômeno Big Data


Por Acadêmicos do Curso de Sistemas de Informação do CEULP/ULBRA 
 
O pesadelo da informação insuficiente que fez nossos pais sofrerem foi substituído pelo pesadelo ainda mais terrível da enxurrada de informações que ameaça nos afogar.
(Bauman, 2011, p.8)
 
Os experimentos no Large Hadron Colider no CERN (laboratório de física de partículas na Europa) geram 40 terabytes de dados por segundo, mais informação do que pode ser armazenada ou analisada pelas tecnologias atuais (muitos destes dados são simplesmente descartados, dada a incapacidade de armazená-los). Esta informação foi extraída da revista semanal The Economist (2013), na qual é afirmado que exemplos de manuseio de grandes quantidades de informação como este também são encontrados em outros cenários, como nos bancos de dados do Wall-Mart, de tamanho estimado em torno de 2,5 petabytes, o equivalente a 167 vezes o conteúdo dos livros na biblioteca do congresso americano. Estes e outros exemplos mostram como a criação de dados cresceu nos últimos anos. Estima-se que do início da civilização até 2003, a humanidade criou 5 hexabytes de informação; atualmente esse mesmo volume é criado a cada dois dias (VILLELA, 2013).(...)

*LER MAIS EM :




INÍCIO 


Related Posts Plugin for WordPress, Blogger...

Nenhum comentário:

Postar um comentário