Терминът data не е ново за нас. Това е едно от основните неща, на които се преподава, когато изберете информационни технологии и компютри. Ако си спомняте, данните се считат за сурова форма на информация. Въпреки че вече съществува от десетилетие, терминът Big Data е шум в наши дни. Както е видно от термина, натоварвания и натоварвания от данни, това е Big Data и може да се обработва по различни начини, като се използват различни методи и инструменти за набавяне на необходимата информация. Тази статия говори за концепциите за големи данни, използвайки 3 Vs, споменати от Дъг Лейни, пионер в областта на съхранението на данни, за който се смята, че е инициирало областта на Infonomics (Икономика на информацията).

Преди да продължите, може да искате да прочетете нашите статии за основите на големите данни и използването на големи данни, за да разберете същността. Те могат да допълнят тази публикация за допълнително обяснение на концепциите за големи данни.

Големи данни 3 срещу

Данните, в огромната си форма, натрупани чрез различни средства, бяха подадени правилно в различни бази данни по-рано и бяха изхвърлени след известно време. Когато се появи концепцията, че колкото повече са данните, толкова по-лесно е да се открие – различна и подходяща информация – с помощта на правилните инструменти, компаниите започнаха да съхраняват данни за по-дълги периоди. Това е като добавяне на нови устройства за съхранение или използване на облака за съхраняване на данните в каквато и форма да са били предоставени: документи, електронни таблици, бази данни и HTML и т.н. Данни.

ЗАБЕЛЕЖКА: Обхватът на Big Data не се ограничава до данните, които събирате и съхранявате във вашите помещения и в облака. Може да включва данни от различни други източници, включително, но не само, елементи в публичното пространство.

3D моделът на големите данни се основава на следните Vs:

  1. Обем: отнася се до управлението на съхранението на данни
  2. Скорост: се отнася до скоростта на обработка на данни
  3. Разнообразие: отнася се до групиране на данни от различни, на пръв поглед несвързани набори от данни

Следващите параграфи обясняват моделирането на големи данни, като се говори за всяко измерение (всяко V) подробно.

A]Обем на големи данни

Говорейки за големите данни, човек може да разбере обема като огромна колекция от сурова информация. Въпреки че това е вярно, става дума и за разходите за съхранение на данни. Важни данни могат да се съхраняват както на място, така и в облака, като последният е гъвкавата опция. Но трябва ли да съхранявате и всичко?

Според бял документ, публикуван от Meta Group, когато обемът на данните се увеличава, части от данните започват да изглеждат ненужни. Освен това в него се посочва, че трябва да се запазва само този обем данни, който предприятията възнамеряват да използват. Други данни могат да бъдат изхвърлени или ако предприятията не са склонни да ги пуснат supposedly non-important data, те могат да бъдат изхвърлени на неизползвани компютърни устройства и дори на ленти, така че фирмите да не плащат за съхранение на такива данни.

използвах supposedly unimportant data защото аз също вярвам, че данни от всякакъв тип могат да се изискват от всеки бизнес в бъдеще – рано или късно – и следователно трябва да се съхраняват за доста време, преди да разберете, че данните наистина не са важни. Лично аз изхвърлям по-стари данни на твърди дискове от минали години и понякога на DVD. Основните компютри и облачно хранилище съдържат данните, които считам за важни и знам, че ще използвам. Сред тези данни също има данни за еднократна употреба, които могат да се окажат на стар твърд диск след няколко години. Горният пример е само за ваше разбиране. Няма да отговаря на описанието на Big Data, тъй като количеството е доста по-малко в сравнение с това, което предприятията възприемат като Big Data.

B]Скорост в големите данни

Скоростта на обработка на данни е важен фактор, когато говорим за концепции за големи данни. Има много уебсайтове, особено електронна търговия. Google вече призна, че скоростта, с която се зарежда страницата, е от съществено значение за по-добро класиране. Освен класирането, скоростта осигурява и комфорт на потребителите, докато пазаруват. Същото важи и за данните, които се обработват за друга информация.

Докато говорим за скорост, важно е да се знае, че тя е отвъд просто по-високата честотна лента. Той комбинира лесно използваеми данни с различни инструменти за анализ. Лесно използваемите данни означават домашна работа за създаване на структури от данни, които са лесни за обработка. Следващото измерение – Разнообразието, разпространява допълнителна светлина върху това.

C]Разнообразие от големи данни

Когато има много и много данни, става важно те да се организират по начин, по който инструментите за анализ могат лесно да обработват данните. Има и инструменти за организиране на данни. Когато се съхраняват, данните могат да бъдат неструктурирани и под всякаква форма. От вас зависи да разберете каква връзка има той с други данни с вас. След като разберете връзката, можете да изберете подходящи инструменти и да конвертирате данните в желаната форма за структурирано и сортирано съхранение.

Резюме

С други думи, 3D моделът на Big Datas се основава на три измерения: ИЗПОЛЗВАЩИ данни, които притежавате; правилно маркиране на данни; и по-бърза обработка. Ако се погрижите за тези три, вашите данни могат лесно да бъдат обработени или анализирани, за да разберете каквото искате.

Горното обяснява както концепциите, така и 3D модела на Big Data. Статиите, свързани във втория параграф, ще докажат допълнителна подкрепа, ако сте нов в концепцията.

Ако искате да добавите нещо, моля, коментирайте.