ncube lm что это
nCube License Manager
Всем доброго времени суток!
Вобщем такое дело, ставлю я Oracle 11g R2 XE. Начинаю конфигурировать базу.. и тут такая оказия, оказывается на порту 1521 уже сидит неведомое нечто со страшным именем nCube License Manager. Не могли бы вы (все) мне растолковать зачем нужен этот Manager, и как его перекинуть на другой порт. Вроде как в таких случаях рекомендуют, менять номер порта для оракловского listener’a, но я совершенно не готов мириться с тем, что порт 1521 занят непойми чем.. Вобщем прошу знающих людей помочь
Qt Community license
Доброго времени суток. Есть вопрос касательно использования Qt Community для разработки проекта.
Skadate license
Привет. Продам лицензию Skadate (движок сайта знакомств). С руководством всё обговорено, добро.
Apache license version 2.0
Прочитал несколько статей относительно данной лицензии, но все равно не совсем понял некоторые.
VPN plus license ASA5520
Привет знатокам. в руках ASA5520 выдержка из show ver: Licensed features for this platform.
Из English в Russian License
Ребят подскажите пожалуйста как переделать windows xp english pack в полностью русский, т.е. я.
License information for this component not found
Привет всем участникам форума. Я знаю, что я не первый, но оказывается и не последний с таким.
Суперкомпьютеры nCube
МРР-архитектура Суперкомпьютеры компании nCube Основные принципы архитектуры Архитектура MIMD Распределенная память Межпроцессорная сеть Высокий уровень интеграции Суперкомпьютер nCube 2 Архитектура процессора nCube Система ввода/вывода nCube 2 Программное обеспечение Надежиость
МРР-архитектура
Суперкомпьютеры компании nCube
Одним из пионеров в создании MPP-систем стала основанная в 1983 году компания nCube. В 1985 году появился первый ее MPP-компьютер, nCube 1. Система nCube 1, в основе которой, как и в основе всех последующих поколений компьютеров nCube, лежит гиперкубическая топология межпроцессорных соединений и высокий уровень интеграции на базе технологии VLSI, показала рекордные результаты по абсолютной производительности и в соотношении цена/производительность для научных вычислений.
Основные принципы архитектуры
Архитектура MIMD
Распределенная память
В суперкомпьютерах nCube используется архитектура распределенной памяти, позволяющая оптимизировать доступ к оперативной памяти, вероятно, наиболее критичному ресурсу вычислительной системы.
Традиционные архитектуры с разделенной памятью удобны для систем с небольшим числом процессоров, однако они плохо масштабируются по мере добавления процессоров и памяти. Когда в системе с разделением памяти увеличивается число процессоров, возрастает конкуренция в использовании ограниченной пропускной способности системной шины, что снижает производительность соединения процессор-память. Кроме того, добавление процессоров в такую систему требует увеличения количества логики для управления памятью, снижая тем самым производительность системы и увеличивая ее цену.
Эти недостатки отсутствуют в системах с распределенной памятью. В такой системе каждый процессор имеет свою собственную локальную память. Потенциальные узкие места, связанные с шиной процессор-память и необходимостью разрабатывать системы управления кэшем, полностью исключаются. С добавлением процессоров добавляется память, пропускная способность соединения процессор-память масштабируется вместе с вычислительной мощностью.
Межпроцессорная сеть
Топология межпроцессорных соединений, обеспечивающая масштабирование до большого числа процессоров без снижения производительности коммуникаций или увеличения времени ожидания, является обязательной для MPP-систем. Суперкомпьютеры nCube используют сетевую топологию гиперкуба, которая отвечает этим требованиям. Соединения между процессорами nCube-системы образуют многомерный куб, называемый гиперкубом. По мере добавления процессоров увеличивается размерность гиперкуба. Соединение двух гиперкубов одинаковой размерности образует гиперкуб следующей размерности.
Эффективность сетевой топологии измеряется, в частности, числом шагов для передачи данных между наиболее удаленными процессорами в системе. Для гиперкуба максимальное расстояние (число шагов) между процессорами совпадает с размерностью куба. Например, в наибольшем 13-мерном семейства nCube 2 сообщения между процессорами никогда не проходят более 13 шагов. Для сравнения, в 2-мерной конфигурации «mesh» (петля) с числом процессоров, вдвое меньшим числа процессоров в максимальной системе nCube 2, наибольшее расстояние между процессорами составляет 64 шага. Задержки коммуникаций в такой системе значительно увеличиваются. Таким образом, никакая другая топология соединения процессоров не может сравниться с гиперкубом по эффективности. Пользователь может удвоить число процессоров в системе, при этом увеличивая длину пути связи между наиболее удаленными процессорами только на один шаг.
Большое число соединений в гиперкубе создает высочайшую пропускную способность межпроцессорных соединений по сравнению с любой другой сетевой схемой. Большое количество путей передачи данных и компактный дизайн гиперкуба позволяют передавать данные с очень высокой скоростью.
Кроме того, гиперкубическая схема характеризуется большой гибкостью, так как она позволяет эмулировать другие популярные топологии, включая деревья, кольца и петли и тороидальные петли. Таким образом, пользователям nCube-систем гарантируется корректное выполнение приложений, зависящих от других топологий.
Высокий уровень интеграции
Суперкомпьютер nCube 2
Суперкомпьютер nCube 2 масштабируется от 8-процессорных моделей до моделей с 8192 процессорами. Архитектура nCube 2 уравновешивает процессорную мощность, пропускную способность памяти и пропускную способность системы ввода/вывода. Добавление процессоров в систему не влечет за собой появление узких мест в пропускной способности памяти или системы ввода/вывода.
Семейство nCube 2 включает в себя две серии суперкомпьютеров:
— 64-разрядный центральный процессор;
— 64-разрядный модуль вычислений с плавающей точкой;
(Здесь и ниже под термином «процессор nCube 2» будут пониматься как базовый процессор серии nCube 2, так и процессор nCube 2S. Оба типа играют одинаковую роль в параллельной обработке данных и сетевых коммуникациях).
При тактовой частоте 25 МГц процессор имеет скорость обработки целочисленных данных 15 VAX MIPS и скорости 4.1 MFLOPS для вычислений с плавающей точкой одинарной и 3.0 MFLOPS двойной точности.
Каждый процессор nCube 2 конфигурируется с устройством динамической памяти емкостью от 4 до 64 МБайт.
Распределенная архитектура памяти фактически не налагает никаких ограничений на скорость операций с памятью. Процессоры не конкурируют в использовании пропускной способности соединения с памятью и не должны ждать подкачки данных. Добавление процессоров в систему увенчивает пропускную способность памяти и тем самым повышает производительность.
Каждый суперкомпьютер nCube 2 содержит компактную сеть процессоров. На одну процессорную плату nCube 2 может монтироваться до 64 процессоров. Процессорная стойка может содержать 16 плат с общим числом процессоров до 1024. Для построения систем большего размера стойки комбинируются. Использование недорогих строительных блоков обеспечивает низкую цену полной компьютерной системы в сочетании с феноменально высокой производительностью, достигнутой за счет комбинированной мощности процессорной сети.
Каждый процессор nCube 2 содержит 14 каналов DMA 13 для соединений в гиперкубе и 1 для ввода/вывода. Выделенный канал ввода/вывода уравновешивает вычислительную производительность процессора с производительностью его системы ввода/вывода. По мере добавления процессоров в систему пропускная способность системы ввода/вывода гиперкуба масштабируется вместе с процессорной мощностью и памятью.
В состав процессора nCube 2 входит высокоскоростное устройство маршрутизации сообщений, которое управляет передачей сообщений между процессорами. Устройство маршрутизации обеспечивает прямую передачу сообщений без прерывания промежуточных процессоров или необходимости хранения данных сообщения в их памяти. Сообщения передаются со скоростью 2.75 МБ/сек на канал DMA. Специальные методы маршрутизации автоматически вычисляют кратчайший путь между процессорами и предотвращают взаимную блокировку сообщений, освобождая пользователей от необходимости планировать маршруты. Устройство маршрутизации передает сообщения настолько быстро, что число проходимых шагов влияет на производительность гораздо меньше, чем в других компьютерах. Высокая скорость передачи создает иллюзию, что каждый процессор связан непосредственно с любым другим в сети. Эффективность гиперкубической топологии в совокупности с высокоскоростным устройством маршрутизации создают высокопроизводительную систему межпроцессорных соединений с максимальной, по сравнению с другими процессорными сетями, скоростью межпроцессорных коммуникаций. Суперкомпьютер серии nCube 2 с 8192 процессорами имеет скорость межпроцессорной передачи 577 ГБ/сек.
Архитектура процессора nCube
На кристалле расположены регистровый файл и два кэша по 16 КБайт каждыи: разделенные кэш команд и кэш данных. Скорость доступа к внутреннему кэшу составляет 1.6 ГБайт/сек, а для большей эффективности обслуживает его специальный конвейер. Доступ к кэшу осуществляется по физическому адресу, чтобы избежать ненужных перемещений данных в случае переключения контекста.
Процессор nCube включает в себя полную поддержку виртуальной памяти. В основу архитектуры заложено 64-разрядное поле виртуального адреса, хотя в настоящее время реализован 48-разрядный виртуальный адрес, обеспечивающий адресацию 256 ТБайт. Размеры страниц могут иметь переменные размеры от 256 Байт до 64 МБайт.
Система ввода/вывода nCube 2
Высокопроизводительной вычислительной системе должна соответствовать мощная, быстрая и гибкая система ввода/вывода. В суперкомпьютере nCube 2 система ввода/вывода использует тот же самый VLSI- процессор, который функционирует как вычислительный элемент в гиперкубической сети. Каноны DMA в процессорах системы ввода/вывода используются как пути передачи данных. Наличие выделенных процессоров ввода/вывода позволяет осуществлять параллельную работу вычислительной сети и системы ввода/вывода.
Система ввода/вывода масштабируется вместе с процессорной сетью. Суперкомпьютер большого размера имеет не только больше вычислительных процессоров, но и большее количество процессоров ввода/вывода.
nCube 2 поддерживают несколько интерфейсов ввода/вывода, обеспечивающих пользователей связью с необходимыми им устройствами.
Плата ввода/вывода nChannel осуществляет связь суперкомпьютера nCube 2 с устройствами вторичного хранения, дисками, магнитными лентами, сетями и другими устройствами. Плата nChannel имеет 16 независимых каналов ввода/вывода, каждый из которых управляется процессором nCube 2. К каждому каналу подключается модуль ввода/вывода, например, контроллер SCSI. Каждый канал передает данные со скоростью 20 МБ/сек. С помощью каналов платы nChannel система nCube 2 соединяется с хост-компьютером, сетью Ethernet, дисководами и накопителями на магнитной ленте, а также модулями преобразования сигналов и передачи видеообразов.
Плата HIPPI позволяет соединять суперкомпьютер nCube 2 с другими суперкомпьютерами, запоминающими устройствами и иными системами, поддерживающими интерфейс HIPPI (High Performance Paroller Interface Высокопроизводительный параллельный интерфейс). Плата HIPPI использует 16 процессоров nCube 2 для обработки сетевого трафика, обычно 8 процессоров для управления вводом и 8 для управления выводом. Скорость передачи данных достигает 100 МБ/сек.
Графическая подсистема реального времени nVision обеспечивает интегрированную подсистему графики и ввода/вывода, которая позволяет программистам отображать и взаимодействовать с большими объемами данных в реальном времени. На плате nVision размещены 16 процессоров nCube 2, 2 CRT-контроллера, специальный текстовый процессор, 16 МБайт памяти и 2 МБайт буфера.
Компьютер nCube 2 соединяется по сети с управляющим компьютером, с которого пользователи загружают nCube 2, разрабатывают и запускают параллельные программы и наблюдают за функционированием процессорной сети и системы ввода/вывода. Стандартным управляющим компьютером для nCube 2 является рабочая станция производства компании Silicon Graphics.
Программное обеспечение
На всех компьютерах семейства nCube 2 устанавливается специализированная программная среда PSE (Parallel Software Environment), включающая в себя следующие компоненты:
— операционная система nCX, построенная по микроядерной технологии и выполняющаяся на всех процессорах гиперкуба, она управляет системой ввода/вывода;
— драйвер хост-интерфейса, интерфейс ввода/вывода для соединения с управляющим компьютером; библиотека стандартных UNIX-функций;
— средства разработки для написания, компиляции, профилирования, отладки, запуска и контроля параллельных программ;
— утилиты системного администратора;
— подсистема интерактивной (on-line) документации.
Среда PSE обеспечивает согласованный для различных моделей семейства nCube 2 прикладной интерфейс. Программы, разработанные для компьютеров с небольшим числом процессоров, не требуют переделки при переносе на систему nCube 2 большего размера. Операционная среда nCube 2 интегрирована со средой управляющего компьютера, обеспечивая пользователей возможностью разрабатывать программы на привычной им платформе. С помощью PSE пользователи могут работать независимо, получая автономный контроль над выполнением своих программ. Множество пользователей могут одновременно выполнять программы.
На суперкомпьютерах nCube 2 поддерживаются две парадигмы программирования:
Надежиость системы nCube 2
Перспективный МРР-компьютер nCube 3
Программное обеспечение для nCube 3 полностью совместимо с прграммным обеспечением семейства nCube 2.
nCube и ORACLE
nCube 2 использует стандартный язык управления базами данных SQL для связи с клиентами ORACLE. SQL обеспечивает связь nCube 2 с приложениями баз данных в широком диапазоне областей. Параллельный сервер ORACLE на системах nCube 2 используется в научном моделировании (в химии, геологии, молекулярной биологии, электронике, аэродинамике), телекоммуникациях, обрабатывающей промышленности, в военных и финансовых операциях.
От редакции: при подготовке статьи использовались материалы, предоставленные компанией SATS Corp.
Поделитесь материалом с коллегами и друзьями
nCUBE
Основание и ранний рост
Перейти к видео
Судебные процессы и последствия доткомов
Что касается бизнеса, лопнувший пузырь доткомов и последовавшая рецессия, а также судебные иски означали, что дела у nCUBE были неважными. В апреле 2001 года nCUBE уволила 17% своих сотрудников и начала закрывать офисы (Фостер-Сити в 2002 году и Луисвилл в 2003 году), чтобы сократить штат и консолидировать компанию вокруг своего производственного офиса в Бивертоне. [7] Также в 2002 году Эллисон ушел в отставку и назначил бывшего генерального директора SkyConnect Майкла Дж. Пола генеральным директором. [8]
Приобретенный
В январе 2005 года nCUBE была приобретена C-COR примерно за 89,5 миллионов долларов, при этом в октябре 2004 года SEC подала заявку на покупку. [9] [10]
nCUBE 10
nCUBE 2
Каждый процессор nCUBE 2 также имел 13 каналов ввода-вывода, работающих на скорости 20 Мбит / с. Один из них был предназначен для ввода-вывода, а другие двенадцать использовались в качестве системы связи между процессорами. Каждый канал использовал маршрутизацию через червоточину для пересылки сообщений. Сами машины были объединены в виде двенадцати гиперкубов, что позволяло разместить до 4096 процессоров на одной машине.
nCUBE-3
Были добавлены дополнительные каналы ввода-вывода, 2 из которых предназначены для ввода-вывода и 16 для межсоединений, что позволяет разместить до 65 536 ЦП в гиперкубе. Каналы работали со скоростью 100 Мбит / с из-за использования 2-битных параллельных линий вместо ранее использовавшихся последовательных линий. NCUBE-3 также добавил поддержку отказоустойчивой адаптивной маршрутизации в дополнение к фиксированной маршрутизации, хотя, оглядываясь назад, не совсем понятно, почему.
Полностью загруженная машина nCUBE-3 может использовать до 65 536 процессоров для 3 миллионов операций в секунду и 6,5 терафлопс; максимальная память будет 65 ТБ, с возможностью сетевого ввода-вывода 24 ТБ / с. [14] Таким образом, процессор предвзято относится к вводу-выводу, что обычно является ограничением. Плата nChannel предоставляет 16 каналов ввода-вывода, каждый из которых может поддерживать передачу со скоростью 20 МБ / с.
Микроядра было разработаны для машины Энкуба-3, но она никогда не была завершена, будучи отвергнута в пользу Plan 9 операционной системы Transit «s.
nCUBE-4
Начало работы в Kubernetes с помощью Minikube
Предисловие переводчика: Minikube — удобный инструмент, который мы применяем в компании для локальных экспериментов с Kubernetes (в частности, для выполнения лабораторных работ по этой системе при обучении сотрудников). Эта статья показалась мне полезной во время моего знакомства с Kubernetes. Она написана год назад автором, использующим Mac OS X, а я проделывал все операции в Ubuntu 16.04 совсем недавно и с актуальными версиями основного софта: Minikube 0.20, Docker 17.06.0-ce, kubectl 1.7.0. Поэтому все выводы команд были переделаны под новые версии и незначительно отличаются от приведённых в оригинальной статье.
Kubernetes — система оркестровки контейнеров с открытым исходным кодом, готовая для production и предназначенная для автоматизации размещения, масштабирования и управления контейнерами.
Это упрощенная версия руководства Hello Minikube, в которой Minikube используется для запуска локального кластера Kubernetes вместо Google Container Engine, благодаря чему отпадает необходимость в наличии облачной платформы.
Руководство написано под Mac OS X, но представленные ниже команды подойдут и для любой другой ОС. (Как уже отмечалось выше, всё было воспроизведено и адаптировано под Linux — прим. перев.)
Предварительные условия
Если команда вернула непустой результат — можно продолжать.
Прим. перев.: sudo mv minikube /usr/local/bin/ можно убрать или поменять, если вы хотите использовать другой путь.
Прим. перев.: Для Ubuntu 16.04 и старше еще доступен snap-пакет:
Протестируйте свою инсталляцию Minikube
Мы можем увидеть список запущенных в кластере подов:
Установка пода hello-minikube
С помощью следующих команд мы можем посмотреть на актуальные списки подов и deployments, чтобы убедиться в случившихся изменениях:
Для доступа к сервису hello-minikube нужно открыть ему внешний IP командой:
Теперь мы можем либо с помощью curl из командной строки, либо браузером открыть ссылку на сервис. Чтобы узнать его внешний IP и порт, предварительно воспользуемся командой:
Примечание: IP-адрес, который управляется VirtualBox’ом, может изменяться. Узнайте его с помощью команды minikube ip или в выводе ifconfig :
Сборка и установка сервиса с Docker
Этот пример несколько сложнее и описывает создание небольшого Node.js-сервера, сборки его в образ Docker с использованием Dockerfile и запуск в Kubernetes.
Создадим простой Node.js-проект hello-node :
Создадим простой HTTP-сервер, который возвращает «Hello World!»:
Теперь мы можем разместить под hello-node в локальный кластер Kubernetes с помощью kubectl :
Как и прежде, необходимо присвоить сервису внешний IP и порт, чтобы получить к нему доступ с помощью curl :
Победа! Мы успешно написали, собрали и разместили простой сервис Node.js, используя Docker-образ в локальном кластере Kubernetes.
Этот игрушечный проект предназначен для начинающих, желающих попробовать Kubernetes локально перед тем, как вы начнете публиковать поды в платных облачных платформах. Он позволяет вам сделать первые шаги без лишних затрат на эти эксперименты.
Уборка
P.S. От переводчика
Более полную документацию по локальному запуску Kubernetes с Minikube можно найти на сайте проекта. Вам также могут быть интересны следующие статьи из нашего блога:
default listener port
Long time ago, Maxime Yuen registered 1521 for nCube License Manager.
By googling I found : Ellison cleans house at nCube, and since them 1521 has been used as a default port for Oracle. Still, you’ll see nCube in IANA.ORG service names port numbers and in /etc/services the nCube name. I don’t know which one came first, Oracle using 1521 or Larry investing in nCube, but I am pretty sure it’s related 😉
Later, still long time ago, Oracle officially registered 2483 and 2484 (tcps) for the listener communication, as documented on Recommended Port Numbers :
This port number may change to the officially registered port number of 2483 for TCP/IP and 2484 for TCP/IP with SSL.
Still, as of Oracle 12c Release 2, port 1521 is recommended.
Now, another question : do you really want to use port 1521?
On the one hand, it could be good for a hacker to know listener runs on 1521 and ssh on port 22. This is configurable of course.
On the other hand, you better use that is assigned to Oracle. RFC 6335 defines 1024-49151 as User Ports, and 49152-65535 as the Dynamic and/or Private
Ports (aka ephemeral). Remember, if a port is used before you start your listener, your listener won’t start.
Remember every network connection keeps a port busy. So if you start a network client from your database server to another server, ssh, sqlnet, mail, whatever, dns, then your port 1028 or 57313 may be busy for a client connection. Which will prevent your listener from starting. If you use port 9999, you could look on IANA and ask the owner if he plans anything on that port.
Very often, most ports are unused when you start the listener. If you find an unused port in the private range, 49152-65535, you may name it in /etc/services.
Very often I see database servers with more than one listener. Obviously, you cannot run more than one listener on port 1521. There are some case where you want different listener with different sqlnet.ora or different Oracle version. But this render consolidation (e.g. Multitenant) more painful.
The discussion on which port to use is obviously far beyond Oracle. There are gazillions of TCP/UDP servers running in the digital world and less than 65535 ports. For sure you cannot have all them on IANA.ORG, right?
In most cases, stick to Oracle recommendation, use port 1521.