Дмитpий Hecтepук

Блог о программировании — C#, F#, C++, архитектура, и многое другое

Приемы взятия сложных интегралов

leave a comment »

Интегралы, что может быть веселее? Ну, возможно не для всех, но все же, я уже давно ничего не постил такого сугубо математического, так что попробую. Этот пост – про то как брать «сложные» интегралы. Этот пост подразумевает что читатель учился таки в школе и знает тривиальные подходы (например, интегрирование по частям). В посте мы будем обсуждать только интегралы Римана, а не интегралы Лебега-Стилтьеса, Ито, Скорохода и так далее (хотя я бы с удовольствием, чесслово).

Весь этот пост — маленькая выборка рецептов или «паттернов» которые можно взять в копилку и потом применять. Пост рекомендуется читать на high-DPI дисплее дабы предотвратить глазное кровотечение. Я предупредил.

Переход к полярным координатам

Начнем с немного избитого метода — перехода к полярным координатам. Примечательно, что переход к полярным координатам можно применять даже там где, казалось бы, речь о декартовых координатах не идет вообще. Например, неопределенный интеграл Гаусса \textstyle \int e^{-x^2} {\mathrm d}x не имеет аналитического решения, а вот определенный интеграл \textstyle \int_{-\infty}^{\infty} e^{-x^2} {\mathrm d}x = \sqrt{\pi}.

Доказать это можно вот как: сначала, чтобы применить преобразование координат, мы вводим две переменные интегрирования \textstyle x и \textstyle y так что

I = \int_{-\infty}^{\infty} e^{-x^2} {\mathrm d}x = \int_{-\infty}^{\infty} e^{-y^2} {\mathrm d}y

Декартовы координаты можно выразить через полярные \textstyle (r, \theta) вот так:

\begin{align*}
x &= r \cos \theta \\
y &= r \sin \theta \\
r^2 &= x^2 + y^2
\end{align*}

Интегрирование от \textstyle -\infty до \textstyle \infty в декартовой системе координат — это то же, что интегрирование \textstyle r от \textstyle 0 до \textstyle \infty и \textstyle \theta от \textstyle 0 до \textstyle 2\pi.

В результате получим следующее:

\begin{aligned}
I\cdot I &= \int_{-\infty}^{\infty} e^{-x^2} {\mathrm d}x \int_{-\infty}^{\infty} e^{-y^2} {\mathrm d}y \\
&= \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} e^{-x^2-y^2} \;{\mathrm d}x\;{\mathrm d}y \\
&= \int_{0}^{2\pi} {\mathrm d}\theta \int_{0}^{\infty} e^{-r^2} r \;{\mathrm d}r \\
&= 2\pi\int_{0}^{\infty}  e^{-r^2} r \;{\mathrm d}r \\
&= \pi\int_0^{\infty} e^{-r^2} \;{\mathrm d}r^2 = \pi \\
\end{aligned}

\therefore I = \sqrt{\pi}

Этот же подход может применять и в 3-х измерениях с использованим сферических координат \textstyle (x,y,z) \rightarrow (r,\theta,\phi).

Геометрические интерпретации

Вообще, «скатывание в геометрию» порой приносит плоды. Вот например допустим вам надо посчитать

\int_0^\infty \frac{{\mathrm d}x}{1+x^2}

Уверен, многие из вас знают что у этого интеграла есть аналитическое решение \textstyle \tan^{-1}x, поэтому посчитать определенный интеграл не составляет труда. Но на самом деле, этот интеграл можно посчитать даже без этого знания.

Представьте круг с радиусом \textstyle r с центром \textstyle (0,0). Длина дуги этого круга с центральным углом \textstyle \theta равна \textstyle L = r\theta, а если круг единичный – то просто \textstyle \theta. Тогда

L = \theta = \int_0^{\theta} \;{\mathrm d}t

где \textstyle t — это произвольная переменная интегрирования.

При таком раскладе, подынтегральное выражение равно \textstyle 1, но мы можем его усложнить, например

\begin{align*}
L &= \int_0^{\theta}1 \;{\mathrm d}t \\
&= \int_0^{\theta}\frac{\frac{1}{\cos^2t}}{\frac{1}{\cos^2t}} \;{\mathrm d}t \\
&= \int_0^{\theta}\frac{\frac{1}{\cos^2t}}{\frac{\cos^2t+\sin^2t}{\cos^2t}} \;{\mathrm d}t \\
&= \int_0^{\theta}\frac{\frac{1}{\cos^2t}}{1+\tan^2t} \;{\mathrm d}t \\
\end{align*}

Далее, делаем подстановку

x = \tan t \Rightarrow {\mathrm d}x = \frac{{\mathrm d}t}{\cos^2 t}

Тем самым, получаем

L = \int_0^{\tan \theta}\frac{{\mathrm d}x}{1+x^2}

Допустим что \textstyle \theta = \frac{\pi}{2}. Тогда \textstyle \tan \theta = \tan \frac{\pi}{2} = \infty, а поскольку \textstyle \frac{\pi}{2} отмеряет нам ровно четверть круга (длина всего единичного круга \textstyle 2\pi), мы моментально получаем результат

\frac{\pi}{2}=\int_0^{\infty} \frac{{\mathrm d}x}{1+x^2}

По аналогии с этим результатом можно получить и другие, разбивая круг на разное количество отрезков, например

\begin{align*}
\frac{\pi}{4} &= \int_0^1 \frac{{\mathrm d}x}{1+x^2} \\
\frac{\pi}{3} &= \int_0^{\sqrt{3}} \frac{{\mathrm d}x}{1+x^2} \\
\end{align*}

и так далее.

Разбиение диапазона интегрирования

Допустим вам надо посчитать

\int_0^{\infty} \frac{\ln x}{1 + x^2} \;{\mathrm d}x

Для взятия этого интеграла, разобъем диапазон интегрирования на два, т.к. \textstyle \int_0^{\infty}=\int_0^1+\int_1^{\infty}.

Займемся сначала первым интегралом, т.е. \textstyle \int_0^1. Сделаем подстановку \textstyle t = 1/x \Rightarrow {\mathrm d}x=-{\mathrm d} t/t^2 . Получим

\begin{align*}
\int_0^1 \frac{\ln x}{1+x^2} \;{\mathrm d}x &= \int_{\infty}^1 \frac{\ln(1/t)}{1+1/(t^2)}\left(-\frac{1}{t^2}\;{\mathrm d}t\right) \\
&= - \int_{\infty}^1 \frac{\ln(1/t)}{t^2+1}\;{\mathrm d}t \\
&= \int_1^{\infty} \frac{\ln(1/t)}{t^2+1}\;{\mathrm d}t \\
&= - \int_1^{\infty} \frac{\ln t}{t^2+1}\;{\mathrm d}t
\end{align*}

То есть внезапно оказалось, что поставленная переменная \textstyle t выполняет такую же функцию что и \textstyle x. Другими словами, \textstyle \int_0^1 = -\int_1^{\infty} а это значит что мы автоматически получаем значение искомого интеграла:

\int_0^{\infty}\frac{\ln x}{1+x^2}\;{\mathrm d}x = 0

Разбиениe на четное и нечетное

Вот нужно вам например посчитать

\int_{-1}^{1} \frac{\cos x}{e^{1/x}+1} \;{\mathrm d}x

Давайте сделаем несколько замен:

\begin{align*}
f(x) &:= e^{1/x} \\
g(x) &:= \frac{\cos x}{f(x)+1}
\end{align*}

Теперь нам нужно посчитать \textstyle \int_{-1}^{1} g(x) \;{\mathrm d}x, и вот тут начинается самое интересное. Мы переписываем \textstyle g(x) как сумму четной и нечетной функции:

g(x) = g_e(x) + g_o(x)

Многие спросят «а так вообще можно?» — на самом деле да, и вот почему. Возьмите и воткните в определение выше \textstyle -x вместо \textstyle x. Вы получите

g(-x)=g_e(-x)+g_o(-x)=g_e(x) - g_o(x)

благодаря свойствам четности и нечетности функций. Следовательно, мы можем выразить четную и нечетную сторону функции как

g_e(x)=\frac{g(x)+g(-x)}{2}

и

g_o(x)=\frac{g(x)-g(-x)}{2}

Так-то. Соответственно, наш интеграл можно переписать как

\int_{-1}^{1}g(x) \;{\mathrm d}x = \int_{-1}^{1}g_e(x) \;{\mathrm d}x + \int_{-1}^{1}g_o(x) \;{\mathrm d}x = \int_{-1}^{1}g_e(x) \;{\mathrm d}x

Как видно выше, нечетная функция пропала полностью, осталась только четная сторона, т.к.

\int_{-1}^{1}g_o(x) \;{\mathrm d}x = 0

Ладно, вам уже наверное надоело ждать сути этого примера. Так вот, у нас есть формула \textstyle g_e(x)=\frac{g(x)+g(-x)}{2}, дайвате воткнем в эту формулу \textstyle g(x). Мы получим

g_e(x)=\frac{1}{2}\left(\frac{\cos x}{f(x)+1}+\frac{\cos (-x)}{f(-x)+1}\right)

Но мы-то знаем, что \textstyle \cos x — четная функция, поэтому \textstyle g_e(x) можно переписать как

\begin{align*}
g_e(x) &= \frac{\cos x}{2}\left(\frac{1}{f(x)+1} + \frac{1}{f(-x)+1}\right) \\
&= \frac{\cos x}{2}\left(\frac{f(-x)+1+f(x)+1}{f(x)f(-x)+f(x)+f(-x)+1}\right) \\
&= \frac{\cos x}{2}\left(\frac{2+f(-x)+f(x)}{f(x)f(-x)+f(x)+f(-x)+1}\right) \\
\end{align*}

Это какое-то месиво и непонятно что с ним делать. Но с другой стороны посмотрите, у нас в формуле присутствует \textstyle f(x)f(-x). Давайте вспомним, что \textstyle f(x)=e^{1/x} и мы получим

f(x)f(-x)=e^{1/x}e^{-1/x}=e^0=1

Ну вот и всё — наша страшная дробь выше уже совсем не страшная т.к. числитель и знаменатель равны, а это значит что

g_e(x) = \frac{\cos x}{2}

а сам интеграл теперь легко посчитать:

\int_{-1}^{1} \frac{\cos x}{e^{1/x}+1}\;{\mathrm d}x &= \int_{-1}^{1} \frac{\cos x}{2} \;{\mathrm d}x = \sin(1) = 0.841...

Хотите ещё?

Я на самом деле понял, что по объему для одного поста вполне достаточно. Сорри если что написал не так — я по-русски прочитал ровно нуль математических книг (чего и вам советую), так что терминология может страдать.

Существует еще вагон разных трюков, так что, если интересно, советую глянуть соответствующую литературу. Удачи! ■

Written by Dmitri

9 ноября 2016 at 16:57

Опубликовано в Mathematics

Tagged with

Разработка под FPGA бесит, но что делать?

2 комментария

В моем предыдущем посте, я жалуюсь на FPGA но, как вы знаете, нытьё я не люблю — если что-то не нравится, нужно это что-то менять. Но для того чтобы понять что конкретно не нравится, нужно описать проблемы, что и будет в этом посте.

Давайте для начала сформулируем несколько банальных отличий HDL языков от обычных языков вроде С или С++. Тут все до боли банально:

  • HDL языки позволяют писать как последовательный (как и С) код, так и код который выполняется параллельно в конструкции, которую они называют process но на самом деле мы можем назвать как “условно-бесконечный while(true)”. На самом деле я лукавлю, т.к. этот бесконечный цикл работает не постоянно, а на основе событий (изменений сигналов), но это сводит его к обычному event loop в одном аппаратном потоке. Никакой магии тут нет.

  • HDL языки позволяют из маленьких логических компонент строить более сложные путем “соединения проводков” между разными элементами дизайна. Это конечно красиво, но это можно делать и в обычных языках путем правильной записи переменных. Разница лишь в том, что касательно HDL переменные — это то что ты присваиваешь последовательно (не очень-то эффективно), а параллельно присваиваются сигналы.

  • HDL языки, когда им нужно один компонент несколько раз разместить в схеме, используют статическую кодогенерацию (generate statement) которая конечно очень круто, с одной стороны, но с другой стороны — весьма тривиальная вещь которой вообще не стоит гордиться.

  • HDL языки можно симулировать прежде чем заливать в FPGA. Это конечно классно, но то как это выглядит — не особо удобоваримо.

Все это выглядит так, как будто над нами издеваются, причем жестко: ничего в списке выше не требует создания нового языка. Экосистемы — да, конечно, но языка — увольте, это какое-то безумие. Вместо этого, один из языков который можно использовать — это SystemC. Другой, который наглая Altera (читай Intel) дает использовать только на некоторых, б-гоизбранных платах, это OpenCL — да-да, та самая поделка которая програла CUDA войну за GPU.

Один из вариантов — это адаптировать Тлён для кросс-компиляции в VHDL, но для этого нужно сначала обсудить самые простые особенности, например типы данных.

Типы данных в VHDL

Вот список типов которые есть в VHDL (ну или в SystemC или чем-то аналогичном):

  • bit — вот эта штука действительно 0 или 1, тут не поспоришь.

  • bit_vector — это, соответственно, произвольный набор бит. Например bit_vector(0 to 8) делает вам целый байт! Количество битов можно самому выбирать, что очень хорошо ложится на Rust-образное описание целочисленных значений.

  • std_logic (VHDL) / sc_logic (SystemC) — понятие “логическое значение”, что на самом деле просто перечисление в котором есть как варианты 0/1 так и другие, причем в SystemC вариантов логического значения 4, а в VHDL – целых 9! Формально, посторонние значения нужны для симуляции, но есть также понятие tri-state logic (когда сигнал вообще ни к чему не подключен).

  • std_logic_vector это соответственно целый набор этих логических значений.

  • sc_fixed (SystemC) — возможность делать fixed-point arithmetic. Это пока вообще не доступно на С++ и подобных, разве что вы сами библиотеку напишете. Не то чтобы это сложно, но тут это “в железе”.

  • integer/float/wtf — возможность не только выделять нужный объем бит, но и делать всякие операции вроде сложения и даже умножения и деления (хотя эти две операции – не очень дешевые).

  • character — восьмибитная буква (ASCII). Все конечно хорошо, но…

  • string — я сейчас даже не буду говорить про то, что в VHDL, “010101” это одновременно и строка и bit_vector и std_logic_vector, просто скажу что строка на FPGA конечно же нединамическая. То есть tweet : string(1 to 160) дает нам фиксированный массив букв.

Естественно что работать без std::vector/set/map очень больно. Точнее, возможно кто-то скажет что так и надо, что мы описываем электрическую схему, которая не может просто аллоцировать и деаллоцировать память как хочется. С другой стороны, мы не маленькие и понимаем что в принципе можно выделить большое количество регистров и потом пытаться трекать общую длину полезных данных на этом поле.

Последовательность и параллелизм

То, как VHDL делит последовательные и параллельные конструкты – в корне неправильно. По идее, должно быть так: за один такт часиков мы хотим сделать ABC. Потом, мы хотим сделать DEF. Вот как-то так. А не перемешивать все в одной куче. Но тут есть один нюанс.

Нюанс в том, что в качестве сигнала изменения может быть не только clock, но и сигнал, который просто поменял своё значение. Например кто-то на кнопочку нажал. А вот это уже существенно ломает как мозг, так и нашу модель.

Вообще, если вы почитаете интернеты, по поймете что делать все “в один такт” на FPGA не реально. И помимо этого, есть еще пренеприятнейшая проблема которая называется glitching. Я сейчас не буду вдаваться в детали, но проблема в том, что даже имея схему которая дает детерминированный результат, из-за того что переход уровней сигнала идет не моментально, у вас может возникнуть ситуация, в которой на какие-то несколько наносекунд сигнал перейдет в состояние, которое не согласуется с тем, что должно быть на выходе. Сейчас найду видео… вот, ловите.

Так вот, о чем я… да, с одной стороны массовый паралеллизм, с другой стороны все равно не на глобальном масштабе, что впрочем итак нереально ввиду того, что описывать комбинаторно алгоритмы — это мучительно. Да, можно развить бешеную скорость относительно CPU, но… вообщем я оставлю эту дискуссию на будущее.

Что делать-то?

Тулы делать, товарищи. Тулы. На текущий момент симулятор выглядит как-то вот так:

Ничего странного не замечаете? Тут линиями показаны уровни сигнала – 0, 1, иногда U (уровень неизвестен). И вообще, в классической логике уровней сигнала всего два: 0 или 1, false или true. В std_logic их девять. И да, эти безумные типы для симуляции и прочего.

Короче, для начала нужен симулятор которые воспринимает VHDL (или Verilog, мне все равно) как последовательно-паралелльную программу, и позволяет ее гонять и дебажить примерно так же, как Visual Studio со всякими там Parallel Stacks и иже с ним. Это вполне реально написать, причем за не очень большие сроки.

Вторая часть уравнения — это сделать все это еще и на девайсе. Все равно то, что мы делаем когда захватываем несколько тысяч сэмплов с FPGA — это по сути historical debugging a la IntelliTrace. То же самое.

Короче, решение этой проблемы простое — нужно просто переделать все на высоком уровне. Лучше всего — выкинуть на помойку VHDL/Verilog, взять OpenCL (его кстати уже поддерживают некоторые, богоизбранные платы) и воткнуть все это в какую-нибудь вменяемую IDE (например IntelliJ). Profit! Но не тот профит к которому привыкли тул вендоры, т.к. FPGA, как показывает практика, это технологически закрытая тема, там новых игроков не любят.

Вообщем что-то нужно делать. Я пока еще думаю, как все эти мысли конкретно описать.

Ложка дегтя

Заказал отладочную плату, она пришла в СПб DHLем, и понеслась Рассея матушка, безумная и беспощадная, втирать мне как я должен 100 штук бумажек вручную оформить чтобы все это ввезти… вообщем поедет она назад в Тайвань, а оттуда куданть еще. Мой вам совет: заказываете железки обычной почтой. На обычную почту не смотрят. ■

Written by Dmitri

29 октября 2016 at 0:55

Опубликовано в FPGA

Почему разработка под FPGA бесит

2 комментария

Сегодня я ходил на конференцию Joker (это Java конфа, так что не совсем моя тематика) и, в разговоре с (бывшими) коллегами из JetBrains, я упомянул что в разработке железа (всякие HDLи) настоящая катастрофа с тулами и производительностью разработчика. В этом посте я хочу немного раскрыть тему, рассказать про то, что вообще можно сделать с железом и почему же разработка под него так мучительна.

Status Quo

Мы живем в мире, где доминируют микропроцессоры, работающие на основе инструкций. Самым популярным набором инструкций является конечно x86, но есть и другие варианты. Эта технология, если говорить конкретно про Intel’евские i7 и Xeon’ы, обкатана, хорошо работает, и самое главное она везде, что гарантирует некую совместимость, на тот случай если вы поставляете софтварный продукт.

Поверх x86 есть еще ряд технологий, которые выдают аппаратную оболочку через софтварный API: это например OpenGL и DirectX для игр и CUDA для обобщенных вичислений на графических картах компании NVIDIA. Это из того что популярно и хоть где-то используется — например, Adobe в своих видео продуктах использует Mercury Engine, которая как раз амортизирует CUDA (умеет ли она использовать OpenCL — не знаю, не уверен).

В целом, игровые карточки — это единственный пример железа, который докупается к компьютеру для ускорения производительности в некоторых сценариях. Ничего аналогичного не существует. Даже звуковые карточки канули в лету, да и на графику сам же Intel наступает, добавляя ее к процессору. Но с графикой — уникальная ситуация.

Аппаратные ускорители

x86 решает подавляющее большинство задач. К сожалению, есть задачи которые отдельно взятый процессор, даже самый дорогой Xeon решить по тем или иным причинам не может. Огромный поток данных, которые льются с биржи, не всегда реально обработать на CPU, а если и реально, то с большими задержками. Или аппаратное шифрование — то, что дает вам возможность использовать BitLocker или его аналоги: это отдельный модуль в компьютере.

Есть куча доменно-специфичных задач, которые можно ускорить железом. Также, некоторые структуры данных и алгоритмы, которые вы используете в C++, можно сделать быстрее в железе, т.к. в отличии от Intel процессоров, где уровень параллелизма заранее ограничен кол-вом ядер (ну и плюс “аппаратными потоками”, это я про hyper-threading итп), уровень параллелизма на FPGA массивен. Нужно только задачу найти.

Вообще, в контексте аппаратных ускорителей, я бы упомянул вот эти категории

  • GPGPU — вычисления на графических картах. Хороши только для численных вычислений (математика) и только для data-parallel вещей (там где нет брэнчинга).

  • Intel Xeon Phi — копроцессоры от Intel. Отдельная PCIe карта, на которой 60+ ядер (4 аппаратных потока на ядро), свой Linux, и которую можно использовать либо как компьютер-в-компьютере, либо в тандеме с хостом, отгружая часть данных для рассчетов.

  • FPGA — ПЛИСы или “вентильные матрицы”, технология реконфигурируемого комьютинга, которая позволяет по сути создать свой собственный процессор вместо того чтобы использовать готовый. Ест очень мало энергии. Поддерживает нереальную параллелизацию, но программируется на языках описания железа (Hardware Description Languages, HDLs).

FPGA решают очень много интересных задач и, будь они чуть развитее, на них бы все и писали. Но эта технология, как и вся хардварная область, не торопится становиться удобоваримой для обычных разработчиков.

Языки описания железа

Железо можно конечно описывать цифровыми схемами, но если учесть что на умножение двух 16-битных чисел может потребоваться 6000 логических ворот, это как-то некомильфо. Поэтому придумали другие языки (самый популярные — VHDL и Verilog), на которых описывается структура и поведение конфигурируемых цифровых систем вроде FPGA.

Проблема №1 этой затеи заключается в том, что вся работа идет на низком уровне. Это значит что нет:

  • Механизмов динамического управления памятью, и как следствие…

  • Динамических структур данных, таких как динамический массив/список/отображение

  • Стандартных алгоритмов (сортировка, поиск)

Короче, нет ничего, с чем мы обычно привыкли работать. Всесто этого, у нас есть совершенно другая модель, под которой мы моделируем движение электричества по системе. Впрочем, для этого нужно отдельную секцию нам с вами выделить, а так можно потеряться в этом безумном многообразии.

Модели описания поведения интегральной схемы

Для начала, следует понимать, что у нас есть два режима взаимодействия с железом, а именно:

  • Последовательный — это когда все те “инструкции” что вы написалы выполняются одна за одной. Это касается в основном присваивания переменных — а в разработке железа есть еще и “сигналы”, с которыми можно работать в параллельном ключе.

  • Параллельный — тут все самое интересное, т.к. можно описать поведение системы, в которой несколько вещей происходят действительно одновременно.

Соответственно мы, как разработчики железа, можем описывать и оптимизировать параллельно-последовательную структуру FPGA в одном приложении и, заметьте, что такие термины как “многопоточность” не имеют никакого смысла вообще, т.к. нет никаких “виртуальных потоков” в контексте одного аппаратного.

Одна вещь, которую мы не обсудили — это хранение в памяти. Точно так же как у CPU есть регистры, кэши разного уровня и RAM, на FPGA есть возможность хранить данные — прямо в логических ячейках или в RAM, если он вам предоставлен. То есть чисто теоретически, можно конечно пытаться строить динамические структуры, но что там по перформансу — я не знаю.

В чем проблема?

Субъективно говоря, разработывать на FPGA то же самое что на CPU раз в 100 сложнее. Вреня-деньги, и никто их не будет тратить на мучения.

Отчасти в катастрофическом, просто идиотском затыке виноваты чисто тулы, то есть EDA которые используются для разработки. Тулы воспринимают FPGA как электрическую схему с набором сигналов вместо того чтобы воспринимать ее как некоторый domain transform обычных программ в зону параллельного.

Вообще, как нынче модно на рынке, сюда могут забежать люди и сказать что де “меняй менталитет”, у нас все так, терпи или вон с рынка. Но мне кажется что нужно как раз больше думать про high-level synthesis: может кому-то и нравятся VHDL/Verilog, но все-таки нужно начинать с того чтобы переходить полностью на высокоуровневый синтез.

Я в какой-то момент пробовал MATLAB, но что-то мне подсказываeт, что будущее на FPGA за OpenCL. Но это решает только проблему языка: еще есть проблема отладки, в которой пока все почему-то считают что мы следим за уровнем сигналов, а не за агрегированным состоянием ООП-образных структур.

И да, объекты, товарищи! Я не настаиваю на присутствии v-табличке, но если мне нужно распарсить биржевой протокол, то лучше все это будет на каком-то вменяемом языке.

Про низкоуровневость

Чтобы реализовать устройство для ethernet на PCIe нужно по обе стороны реализовывать протоколы. Это ппц как сложно. Вот вы, вы хотите писать свой собственный драйвер? Я — нет. Я даже не знаю как все это устроено.

А ведь производители могли бы все разжевать и в рот полодить. Почему CUDA может, а FPGA производители — нет? Потому что им всем на нас плевать, и они ничего не понимают.

Ничего…

Со всем этим нужно бороться. Менять парадигму, выводить тулы строго в опенсорс (это хороший пример где проприетарщина == гниль). Всех несогласных закопать.

Я пишу feed handler. Детали будут позже. ▪

Written by Dmitri

17 октября 2016 at 21:08

Опубликовано в FPGA

Не нравится ООП? Делайте свой язык программирования!

24 комментария

В интернете нынче модно говорить что «ООП это шлак», и многие мечтают сделать свой собственный язык программирования но чего-то боятся. А на самом деле, если подойти с умом, тут все просто. Серьезно! Я знаю, вы хотите мне возразить, что дескать…

  • Писать свой компилятор в native code/IL/bytecode слишком сложно — а и не надо!! Вы понимаете, что существующие компиляторы вроде С или Java оттачивались годами, сотнями людей? Почему бы не воспользоваться всем этим богатством, компилируя ваш язык в тот же С/C++, и потом получая от С/C++ компилятора все оптимизации и плюшки?

  • Меня не прет идея возиться с кастомными форматами файлов для лексинга и парсинга, это депрессивно — а и не надо!! Просто возьмите фреймворк, который поддерживает парсеростроение прямо в коде.

  • У меня сейчас весь код на Java/C#/C++ написан, как я сделаю interop? — да очень просто, ведь с подходом транскомпиляции, вы можете транслировать свой язык в любой из вышеперечисленных, генеря и потом потребляя любой интерфейс, причем в обе стороны.

  • Язык-то я сделаю, а как насчет поддержки языка в моей любимой IDE? — о, ну это уже высший полет. Для начала, постарайтесь сделать лаконичный маленький язык, для которого инструменты не критичны. А потом можно научиться и тулы поддерживать (или писать свои).

Ну что, убедил?

Чтобы показать насколько это все просто, вот небольшой пример: представим, что вы хотите расширить определение С-образной глобальной функции, добавив следующие фичи:

  • Определить свой набор «коротких» типов переменных, вроде i32 или f64 на замену int и double.

  • Передавать аргументы в формате x,y : i32, то есть переиспользуя определение типа для нескольких сразу.

  • Добавлять в тело функции определения переменных вроде x = 5 так чтобы, при условии что x не имя параметра, это преврашалось в полноценную декларацию переменной, а иначе просто присваивалось значиние.

Для начала такой фичесет подойдет? Я знаю что мало, но я тут и не пытаюсь целый язык сделать. Вот как это будет выглядеть:

Наш язык… …станет вот этим
void foo(x,y:i32, z:f64)
{
  x = 5;
  w = 123;
}
void foo(int32_t x, int32_t y, double z)
{
  x = 5;
  int w = 123;
}

Структуры для языка

Во всех языках есть механизмы построения парсеров. Я возьму C++ и Boost.Spirit, для примера, но вообще язык тут особого значения не имеет. Для начала давайте сделаем новые типы вроде f32 вместо float:

struct numeric_types_ : qi::symbols<wchar_t, wstring>
{
  numeric_types_()
  {
    add(L"i32", L"int32_t");
    add(L"f32", L"float");
    add(L"f64", L"double");
  }
} numeric_types;

Теперь определяем функцию:

struct function
{
  wstring name;
  vector<parameter> params;
  vector<assignment_statement> assignments;
 
  // поиск параметра по имени; реализация банальна
  boost::optional<const parameter&> find_parameter(const wstring& name) const;
};

У любой функции есть имя, она берет сколько-то там параметров (ну, деклараций параметров, но краткость сестра таланта), и у нее есть тело, которое в нашем случае будет состоять исключительно из присвоений значений переменным (не очень практично, I know).

Поскольку мы умеем определять аргументы в стиле x,y:i32, т.е. несколько с одним типом, собственно структур parameter мы определим вот так:

struct parameter
{
  vector<wstring> names;
  wstring type;
};

Ну и наконец присвоение значений переменным можно сделать вот так:

struct assignment_statement
{
  wstring variable_being_assigned;
  wstring value;
  wstring infer_type() const
  {
    if (value.find(L'.') == wstring::npos)
      return L"int"s;
    return L"float"s;
  }
};

Выше показан г~код для определения типа, думаю вы понимаете что в последствии это можно пофиксить.

Всё, структуры готовы, можно строить парсер. (На самом деле есть еще этап их адаптации через Boost.Fusion, но это implementation-specific деталь, если что гляньте в сорцы.)

Парсер

Парсер для нашего языка написать настолько легко что я просто приведу весь код целиком, а потом мы его обсудим, ок?

template<typename Iterator>
struct function_parser : qi::grammar<Iterator, function(), space_type>
{
  function_parser() : function_parser::base_type(start)
  {
    using qi::lit;
    param %= 
      +alnum % ','
      >> ':'
      >> numeric_types
      >> -char_(',');
    assignment %=
      +alnum
      >> '='
      >> +alnum
      >> ';';
    start %= lit("void ")
      >> +(char_ - '(')
      >> '('
      >> *param
      >> ')'
      >> '{'
      >> *assignment
      >> '}';
  }

  qi::rule<Iterator, parameter(), space_type> param;
  qi::rule<Iterator, assignment_statement(), space_type> assignment;
  qi::rule<Iterator, function(), space_type> start;
};

Для начала, вот эти qi::rule просто говорят парсеру как то что он распарсит ложится на структуры что мы определили ранее. Например, вот хочется распарсить присваивание вроде x = 3, что это? Это идентификатор (то есть, 1 и более alphanumeric символов), потом =, потом еще раз набор символов и в конце ;.

Конкретно в Boost.Sprit, в отличии от регулярок, «один и более» записывается как + до типа символа, т.е. +alnum. То есть + означает «один и более», * — «сколько угодно», и так далее. Вот и получается что присваивание мы распарсили, а поскольку наш qi::rule мэпит его на assignment_statement, поля этой структуры будут присвоены автоматически. Это гениально, или как?

То же и с другими частями языка. Хочешь распарсить несколько переменных через запятую и запихнуть их в вектор? Пишем +alnum % ',' где оператор % – это как сказать *(+alnum >> ','), только короче. Что тоже удобно.

Так вот, парсер у нас готов, можно парсить. На Spirit это делается вот так:

template<typename Iterator>
wstring parse(Iterator first, Iterator last)
{
  using boost::spirit::qi::phrase_parse;
  function f;
  function_parser<wstring::const_iterator> fp{};
  auto b = phrase_parse(first, last, fp, space, f);
  if (b)
  {
    return render(f);
  }
  return wstring(L"FAIL");
}

…где render() – это функция которая обходит то что мы напарсили и генерит из этого чистейший, готовый к компиляции С (никто не мешает вам выводить сразу в N разных языков).

Pretty print

Короче, мы попарсили функцию, получили из нее ООП структуры, ну и теперь можно из них чего-нибудь нагенерить. Для этого их нужно обойти, что в нашем конкретном случае не сложно. Сначала пишем название функции:

inline wstring render(const function& f)
{
  wostringstream s;
  // name of the function (assume void-returning)
  s << "void " << f.name << "(";

Потом выводим параметры, не забывая что у нас может быть несколько имен для одного и того же типа аргумента:

// each of the parameters
const auto param_count = f.params.size();
for (auto i = 0u; i < param_count; ++i)
{
  auto& p = f.params[i];
  for (int j = 0; j < p.names.size(); ++j)
  {
    s << p.type << " " << p.names[j];
    if (j + 1 < p.names.size()) s << ", ";
  }
  if (i + 1 < param_count) s << ", ";
}
s << ")\r\n{\r\n";

А потом, аккуратненько, присваивания. Не забываем что тип нужно прописывать только если переменная не фигурирует где-то в параметрах функции:

// each of the assignments
const auto assign_count = f.assignments.size();
for (auto i = 0u; i < assign_count; ++i)
{
  s << "  ";
  auto& a = f.assignments[i];
  auto type = a.infer_type();
  bool is_param = f.find_parameter(a.variable_being_assigned) != boost::none;
  if (!is_param)
    s << type << " ";
  s << a.variable_being_assigned << " = " << a.value << ";\r\n";
}
s << "}";
return s.str();

Вот собственно и всё. Тут в принципе можно реализовать «полноценный» Visitor, если хочется.

Заключение

Как вы поняли, тут остался шаг компиляции полученного кода — думаю всем итак очевидно как это делать, это зависит от языка который вы нагенерили. Вообще я ратую за «портативный» C/C++, но решать в конечном счете вам.

Если хотите сорцы проекта, они тут. Мой пример на С++, но вы можете реализовать свой язык на чем угодно. Мораль в том что создать сейчас свой кросс-компилируемый язык легко, поэтому вместо того чтобы ныть про ООП и воевать с ветряными мельницами, проще сесть и запилить что-то своё. Так что садитесь и пишите спеку вашего чудо-юдо языка. Удачи!

Written by Dmitri

2 сентября 2016 at 16:10

Опубликовано в Programming

Tagged with , ,

C++ для Java и C# разработчиков

10 комментариев

Думаю мы все можем согласиться с идеей о том, что С++ разработчику достаточть легко в последствии освоить C#, Java или еще какой-то более современный язык. Но вот обратное — не совсем так. Многие разработчики начинают плеваться как только слышат про «ручное управление памятью» и подобные вещи. Суть этого поста — попытаться донести для разработчиков во-первых зачем им нужен С++, ну и показать как можно на нем делать те же вещи, к которым они возможно привыкли в других языка. А также объективно рассказать про те проблемы, которые в С++ до сих пор не решены.

Зачем нужен С++

Сегодня существуют три основных индустрии, которым нужен С++. Это

  • Игровая индустрия

  • Embedded development

  • Quant finance

В играх нужна производительность, поэтому С++ помогает ее достичь будучи ближе к железу чем языки основанные на виртуальных машинах. В С++ можно работать с памятью напрямую и даже вставлять в код куски Assembler’а.

В разработке для встроенных устройств тоже важна производительность, а также там ограничения по памяти которые порой не дают развернуть управляемую среду. Поэтому С и С++ все еще там популярны, хотя были и есть попытки запускать и C# (.NET) и Java на таких устройствах.

У нас в quant finance, С++ остался по историческим причинам. Финансовая индустрия весьма консервативна, а современные веяния высокочастотной торговли требуют максимум производительности. На уровне рассчетов моделей есть популярная библиотека QuantLib, но большинство алгоритмов пишут in-house, хотя тоже часто на С++.

Помимо производительности, есть еще несколько причин писать на С++. Одна из них это портативность (внезапно, да?) — на С++ вполне можно писать полностью портативный код. Я вот например использую Intel C++ Compiler (по фичам он «не очень»), который существует как на Windows так и на Linux.

Еще одна причина использовать С++ заключается в том, что это единственный способ амортизировать мощные аппаратные платформы, такие как CUDA и Intel Xeon Phi. Но это в основном для тех кто любит гоняться за пиковой производительностью.

Целочисленные типы

Когда я пишу в C# что-то вроде int x; я четко знаю две вещи:

  • Переменная x – это 32-битное целое число со знаком

  • Изначально, x содержит значение 0 (ноль)

В С++, мы не можем быть уверены ни в одном из этих утверждений. Тип int не определен с той строгостью какой бы хотелось (подразумевалось, что на других платформах — например embedded — у него может быть другой размер), а его дефолтное значение в большинстве случаев не определено, и там может быть что угодно.

Для решения первой проблемы, можно использовать С++ заголовок <cstdint>, который определяет такие типы как uint8_t, int32_t и так далее. Это существенно улучшает портативность кода.

Вторая проблема толком не решена, поэтому вам придется писать int32_t x{0};. К счастью, в С++ с последнее время наконец-то можно инициализировать поля класса прямо в теле, вот так:

class Foo
{
  int32_t bar{0};
  uint32_t baz = 42;
};

Статические поля так инициализировать, к сожалению, все ещё нельзя.

Строки

Со строками в С++ беда. Во-первых, изначально в С++, как и в С, строка была просто указателем на массив байтов (да-да, байтов а не code point’ов) с нулевым байтом \0 на конце. Это значит что вычисление длины строки — это O(n) операция.

Далее в C++ появился тип string, но с ним есть масса проблем. Например, у этого типа есть функции size() и length(), которые делают одно и тоже, но из API это совсем не очевидно. Но еще обиднее что там нет таких очевидных вещей как to_lower/upper() или split(), в результате чего приходится пользоватся сторонними библиотеками вроде Boost.

С++ весьма амбивалентентен в плане поддержки Unicode. Под Windows, кодировка строки типа string — ANSI, а вовсе не UTF-8. Есть также тип wstring, который использует UTF16 (ту же кодировку, что C# и Java).

Массивы

Изначально, массивы достались С++ из С, и это означает что массив — это просто указатель на первый элемент, и всё. То есть массив сам не знает какой он длины, и чтобы написать функцию которая обрабатывает массив, нужно 2 аргумента: указатель и длина.

Сейчас у нас есть такие типы как array и vector. Эти типы позволяют хранить либо массивы фиксированной длины (например array<int,3>) или, в случае с vector, иметь динамический массив, который расширяется и сужается по мере добавления в него элементов.

Многомерные массивы в С++ (как и в С) тоже выглядят плохо, т.к. являются всего лишь массивами указателей. Для них тоже стоит использовать array/vector, а еще лучше, если требуются вычисления, использовать специализированную библиотеку вроде Eigen.

Выделение памяти

Адресное пространство поделено на условно 2 области — стэк и куча. Стэк предназначен для временных данных, и имеет ограничения по размеру, в то время как куча — это ваша оперативная память, занимайте хоть всю.

В связи с этим, в отличии от языков со «сборкой мусора», в С++ есть два способа выделения (аллокации) памяти: на стэке и в куче.

На стэке можно выделить память так, как показано ниже. Освобождать ее собственноручно не надо.

int i;
Person person;

Другое дело — выделение в куче. Она для более долгосрочного хранения данных, и ответственность за очистку этой памяти лежит на вас. Если забудете, будет «утечка памяти», что очень плохо.

int* i = new int;
Person* p = new Person;
// а потом не забываем удалить
delete i;
delete p;

Как видите, для выделения в куче, мы используем оператор new, и он нам возвращает указатель на выделенную память. Чтобы освободить эту память, нужно использовать оператор delete.

Значения, указатели и ссылки

Давайте начнем с опеределений. Вот есть у вас переменная int32_t x{42}; — под нее выделено 4 байта, и каждый раз когда вы «берете» x, вы получаете значение 42 (ну, пока вы его не поменяли). Запись x = 11; запишет в эту память значение 11.

У нас также есть такая штука как указатель — это переменная, которая содержит адрес другой переменной. То есть можно написать вот так:

int32_t x{42};
int32_t* y = &x;

Тип этой переменной — со звездочкой, и звездочка означает что это указатель. Ее значение — это адрес переменной x, а чтобы взять адрес чего-либо в С++ нужно посдавить амперсанд, вот так: &x.

Хитрость тут в том, что через адрес переменной можно манипулировать самой переменной. То есть вместо x = 42 можно написать *y = 42. Заметьте что тут звездочка стоит перед именем переменной, и означает «следовать за». То есть мы идем туда, куда указывает y и в том месте памяти меняем значение.

Наконец, третий способ доступа к переменной — это ссылка. Ссылка действует так же как и указатель, только синтаксис другой. Вот смотрите:

int32_t x{42};
int32_t& z = x;
z = 11;

В отличии от указателей, тип ссылки заканчивается на &, и ссылке не требуется адрес для присваивания — можно просто подсунуть ей саму переменную. Для доступа по ссылке, в отличии от указателей, тоже не нужно никакого префикса: можно просто использовать ссылку как обычную переменную.

Также, в отличии от C#/Java, в С++ ссылка не может быть пустой (null). Это значит что все ссылки должны быть инициализированы, т.е. ссылаться на что-то. Это с одной стороны хорошо (в управляемых языках многие мечтают о non-nullable objects), но с другой стороны создает много проблем — например, если в классе есть поле-ссылка, вы обязаны инициализировать ее в конструкторе.

Умные указатели

К сожалению, ни один из типов приведенных ранее не ведет себя как ссылка в C# или Java, т.к. любой объект, выделенный в куче, нужно удалять вручную. Но как это сделать если ты не знаешь, кому, когда и на сколько времени понадобится твой объект? Для этого есть умные указатели.

Умный указатель содержит в себе указатель на объект в куче и счетчик использований. Как только счетчик доходит до нуля, объект уничтожается. Выглядит это вот как-то так:

shared_ptr<Person> person = make_shared<Person>("Dmitri", 123);

Такой объект можно передавать куда угодно и не бояться его использовать, и он — пожалуй лучший аналог ссылок в C#/Java, хотя и с ограничениями. Одно из ограничений — невозможность рекурсии, то есть нельзя писать вот так:

struct Parent
{
  shared_ptr<Child> child;
}
struct Child
{
  shared_ptr<Parent> parent; // так нельзя
}

Поскольку нет никакого централизованного учета ссылок, подобная конструкция не приведет ни к чему хорошему — в Child вместо shared_ptr придется использовать weak_ptr ну или обычную ссылку.

shared_ptr<> также решает проблему хранения ссылок в таких коллекциях как vector. Проблема в том, что нельзя сделать vector<Foo&>, но вполне можно сделать vector<shared_ptr<Foo>>.

Помимо shared_ptr<> есть несколько других типов умных указателей.

Алгоритмы

С++ не обладает никаким «интерфейсом» который символизирует перечисляемые объекты. Вместо этого он использует итераторы, которые умеют ходить по той или иной структуре. Любой перечисляемый тип может определить функции begin() и end() который возвращают итераторы на первый и за-последним элементы.

С++ также определяет цикл for для обхода коллекций, то есть можно написать:

vector v{1,2,3};
for (auto x : v)
  cout << c << endl;

Код выше также использует ключевое слово auto (аналог var в C#) для вывода типов.

В целом, алгоритмы в С++ это глобальные функции с такими красочными названиями как count_if и всякими прелестями вроде того факта, что remove на контейнере вовсе не удаляет объекты из контейнера, а только сваливает их в конец, а собственно удаляет их функция erase() (очень неинтуитивно).

У контейнеров нет функций-членов с алгоритмами вроде sort() или search(). И добавить их в контейнер нельзя (за исключением наследования) т.к. в С++ нет функций расширения. Алгоритмы специально спроектированы так, чтобы работать на всех возможных контейнерах путем итерирования.

Заключение

Сейчас С++ становится лучше. Улучшается синтаксис языка, добавляются новые библиотеки, но стоит признать, что некоторые проблемы так и не решены, и есть множество недоработок в стандартной библиотеке, некоторые из которых кроме как переписыванием не починить.

В плане компиляторов тоже все лучше и лучше. Есть компилятор Clang (дает вменяемые ошибки при компиляции вместо километров ада), интерпретатор Cling (REPL-среда на базе Clang, рекомендую!), C++ компилятор от Microsoft поддерживает инкрементальную и Edit & Continue компиляцию, а еще скоро процесс компиляции существенно ускорится путем введения модулей.

Что касается инструментов, то ReSharper C++ (если вы пишете под Visual Studio) и CLion (кросс-платформенная IDE) позволяют комфортно писать на этом языке. А такие технологии как CUDA Toolkit и Intel Parallel Studio позволяют амортизировать популярные аппаратные платформы CUDA и Intel Xeon Phi. ■

Written by Dmitri

4 августа 2016 at 14:27

Опубликовано в С++

Tagged with , ,

Проектные идеи

8 комментариев

Знаете почему возникает субсидирование? Потому, что некоторые вещи в корне невыгодны. Вот взять например сельское хозяйство — они катастрофически неприбыльно и имеет смысл только если вы занимаетесь “натуральным хозяйством”, т.е. кормите себя самого.

С другой стороны, субсидирование позволяет развивать смелые и безумные проекты, которые иначе никогда бы не стали реальностью. Это мне нравится, т.к. я, по сути дела, теоретик — я не скажу что я готов например сам участвовать в написании крупных кусков ПО, но я готов быть идейным вдохновителем и “изобретателем”, если хотите.

Так вот, в этом посте я хотел описать несколько своих идей которые есть (или были?) у меня. Может кому-то что-то понравится.

Кастомная разработка клавиатур

Современная клавиатура — это трэш. Я печатаю этот пост на Dell XPS 15 у которого высота клавиш снижена практически до нуля — меньше только у 12-дюймовых МакБуков (и я их клаву пробовал — вообще бред полный).

Так вот, модель “под одну гребенку” не работает. Я например использую TypeMatrix:

tmx-2030_gallery-1[1]

У разных людей разные предпочтения, и я думал что было бы неплохо делать полностью кастомный сервис, где люди выбирают не только клавиши (keycaps) но и размер клавиш и их местоположение, чтобы каждый пользователь мог получить полностью уникальный продукт.

Еще одна, еще более безумная идея — это предоставлять этот же сервис для пользователей ноутбуков. На ноутбуках нельзя мухлевать с высотой клавиш (вы же не хотите чтобы клавиши касались экрана?) но можно менять раскладку. Я например хотел бы ортогональную раскладку вообще везде.

Если интересно, есть вот сайт для дизайна своей клавиатуры, но только на экране. А я бы хотел это делать IRL.

Специфичные аппаратные ускорители

Смотрите, у нас почти все пересели на ноутбуки. Потому что тупо удобно. Я купил 13- и 15-дюймовые ноуты несколько дней назад, и я понимаю почему людям так нравится — современное индустриальное исскусство доставляет. Но проблема в том, что ноуты все же не особо подходят для супер-мега-загруженных задач.

Для игр есть решения вроде вот такого:

Razer%20Blade%20Stealth-12-1200-80[1]

Но фишка в том, что нам порой нужны не совсем игры. Нужны просто вычислительные ресурсы. И тут-то пока ничего кроме Remote Desktop не придумали.

Поэтому у меня была такая идея, что может ноуты (особенно те, у которых выдув не снизу) как-то утолщать раза в 2 — это кстати уже делают с помощью slice-батареек (привет, Lenovo!) но никто не делает для других целей. А ведь сколько FPGA можно туда засунуть. Там можно делать, например, аппаратное кодирование 4К экрана (т.к. обычный ноутбук, увы, такую задачу не потянет). Ну или например сделать уйстройство которое держит огромную базу данных и предоставляет всякие мощные возможности (sharding, full-text search) на аппаратном уровне. Я думаю с технологией М.2 это вполне реально.

Вот вам практическая задача: у меня есть фотоаппарат, который снимает с разрешением 42Мп. У него есть WiFi и я по идее могу перегружать данные куда-то еще. Но проблема с обработкой — я обычно на фотках гоняю DxO, потом делаю ресамплинг для социалочек и все такое. Я бы хотел вам сказать, что все работает супер-быстро, но нет. И я не говорю про 4К видео где вообще беда с точки зрения любых попыток монтажа и обработки. Да что там, даже 720р видосоки из Camtasia кодируются неприемлимо долго — практически в realtime.

Безрамочные супербольшие экраны

Купленные мной XPS 13 и 15 практически не имеют рамки вокруг дисплея. Это — будущее, уверен что следующий МВР будет иметь то же самое. Мораль тут вот в чем — люди которые любят использовать несколько мониторов ставят их рядом и получается, честно говоря, не очень, потому что бортики.

Теоретически никто не мешает просто делать большой экран как сетку из 3*2 из 15-дюймовых 4К дисплеев. Если еще все это закруглить… кстати, закругленные дисплеи уже делают, я пока как-то не “вкусил плод”:

maxresdefault[1]

Но проблема в том, что пока никто еще не делает карточки которые держат по 6 4К мониторов, в отличии от AMD Eyefinity где 6*FullHD поддерживается без каких либо проблем.

Да, и в стиле офтопика, я на самом деле не настаиваю на 4К… если взять сетку 3×2 из 1080р мониторов, это разрешение в аггрегате будет больше чем 4К, а без рамок можно именно на нем и смотреть те несуществующие 4К фильмы которые никто так и не начал выпускать (эй, где 4К BlueRay уже, а?).

Reminder: 6 экранов это норма, я рекомендую использовать минимум 3. 2 экрана — не так удобно, т.к. у них будет полоса идти прямо по центру.

Аппаратный Continuous Integration

Если коротко — поставить систему a la TeamCity на Intel Xeon Phi и продавать это как программно-аппаратное решение.

Если компания полноценно использует CI, то ее системы сильно загружены, т.к. все посылают билды на каждый чих и это в принципе ОК. Для такой системы, нужны:

  • Большие параллельные вычислительные ресурсы, т.к. “много ядер”

  • Не очень много памяти, т.к. CI в основном собирает маленькие бинарники и прогоняет тесты

В связи с этим, штуки вроде Xeon Phi подходят практически идеально. При том что там есть файловая система на которую можно поставить веб-сервер и все что угодно.

Надъязыки

Дядя Боб вон считает что нам уже хватит языков и процессов и пора “работу работать”. Я, в свою очередь, большой фанат всяких DSL которые потом могут конвертироваться или кросс-компилироваться в то что вам нужно — будь то C++, C# или Java.

Проблема только в том, что писать этот “надъязык” нужно так же как и обычный язык, а потом еще писать правила конверсии. И что самое болезненное, что обычные манипуляции вроде операции со строками очень болезненно транслировать из какого-то надуманного языка в тот же STL.

К слову, предостаточно людей не согласны с идеей что текущих языков нам хватит. Самый большой наверное лагерь это Rust’овики, их кажется легион. ■

Written by Dmitri

31 июля 2016 at 17:25

Опубликовано в Uncategorized

К вопросу о front-end’ах

4 комментария

Да, я обещал написать про front-end’ы, так что вот. Для начала расскажу что это такое. Если коротко — можно писать код как plain text, а можно его писать с помощью редактора a la Microsoft Equation Editor. Именно это делает Mathematica, и получается неплохо.

Но мы начнем с простого, например с того факта что * не умножение а звездочка и было бы логичнее использовать \times или хотя бы \cdot. Я понимаю что кого-то нервирует что произведение x и y будет выглядеть как x×y, но это пожалуй единственный кейс который приходит в голову, и тут можно написать x \cdot y и все довольны.

Вы заметили что я начал использовать \LaTeX? Его Дональд Кнут изобрел чтобы математику верстать. Выглядит сугубо приличнее чем plain text Вот например хочу я, допустим, деление: конечно x/y выглядит более менее сносно, но \frac{x}{y} как-то солиднее. Или foo->bar() все же не так круто как \text{foo}\to\ bar().

Вообще идентификаторы символов тоже хочется иметь погибче, например почему я не могу назвать меременную C^1_k или же например \widetilde{abc}?

Все те условности к которым мы привыкли навязаны plain text представлением. И если отойти от него – да, нужно иметь специальные форматы файлов, но структурированный как дерево код легче обходить, так что плюшки тут очевидны. Это как раз то, что делает MPS, но можно сделать ещё круче.

Вообщем такие вот мысли…

Written by Dmitri

18 июля 2016 at 0:33

Опубликовано в Technology