Віртуалізація великих даних

Автор: Judy Howell
Дата Створення: 6 Липня 2021
Дата Оновлення: 11 Травень 2024
Anonim
Proxmox: Доступная виртуализация на русском (1 урок - вебинар, Инсталляция)
Відеоролик: Proxmox: Доступная виртуализация на русском (1 урок - вебинар, Инсталляция)

Зміст

Визначення - Що означає віртуалізація великих даних?

Віртуалізація великих даних - це процес, який фокусується на створенні віртуальних структур для великих систем даних. Підприємства та інші сторони можуть отримати вигоду від віртуалізації великих даних, оскільки це дозволяє їм використовувати всі накопичені ними дані для досягнення різних цілей і завдань. У ІТ-індустрії є заклик до інструментів віртуалізації великих даних, які допоможуть обробляти великі аналітичні дані. У ІТ-індустрії є заклик до інструментів віртуалізації великих даних, які допоможуть обробляти великі аналітичні дані.

Вступ до Microsoft Azure та Microsoft Cloud | У цьому посібнику ви дізнаєтеся, що стосується хмарних обчислень та як Microsoft Azure може допомогти вам мігрувати та вести свій бізнес із хмари.

Техопедія пояснює віртуалізацію великих даних

Пояснення віртуалізації великих даних вимагає розуміння загальних принципів віртуалізації в цілому. Основна ідея віртуалізації полягає в тому, що гетерогенні або розподілені системи представлені у вигляді складних систем через специфічні інтерфейси, які замінюють фізичне обладнання або позначення сховища даних віртуальними компонентами. Наприклад, у віртуалізації апаратних засобів програмне забезпечення перетворює систему фізичних комп'ютерів у систему "логічних" або віртуальних комп'ютерів. Ця система віртуалізації може представляти частини двох або більше різних накопичувачів накопичувача на двох або більше комп'ютерах як єдиний "Диск А", до якого користувачі отримують доступ як єдине ціле. У віртуалізації мережі системи можуть представляти набір фізичних вузлів і ресурсів як різний набір віртуальних компонентів.

Один із способів думати про великий ресурс для віртуалізації даних - це інтерфейс, який створений для того, щоб зробити аналітику великих даних більш зручною для кінцевих користувачів. Деякі професіонали також пояснюють це тим, що створюють "шар абстракції" між фізичними великими системами даних, тобто де кожен біт даних розміщується індивідуально на комп'ютерах або серверах, і створюючи віртуальне середовище, яке набагато простіше зрозуміти та орієнтуватися. Велика віртуалізація даних спрямована на об'єднання всіх цих розподілених місць в один простий віртуальний елемент.

Діловий світ розробив складний набір інструментів аналітики великих даних, але не всі вони підтримують принцип віртуалізації великих даних, і така робота має свої проблеми. Деякі стверджують, що компанії повільно займаються віртуалізацією великих даних, оскільки її впровадження вважається стомлюючим і складним. Однак це може змінитися, оскільки постачальники послуг продовжують розробляти товари та послуги, яких хочуть компанії, а кваліфіковані фахівці з ІТ розглядають найкращі способи внесення змін між тим, як фізично налаштована система, та як вона використовується через загальну архітектуру програмного забезпечення.