prefix stringlengths 15 2.91k | middle stringlengths 60 1.27k | suffix stringlengths 13 3.62k |
|---|---|---|
«Aimed at a younger audience. Cartoon like and brightly coloured». ## Резюме
1. По-видимому, любые аккуратно и профессионально сделанные иллюстрации людей вызывают положительную или нейтральную реакцию независимо от того, прорисованы лица или нет. 2. Люди с прорисованными лицами получают чуть более высокие оценки. Но гораздо сильнее оценка зависит от сюжета иллюстрации, количества деталей на ней и страны (некоторые страны в целом ставят более выс | окие/низкие оценки любым иллюстрациям). 3. Картинки без лиц, по мнению респондентов, хуже | подходят для детей. Картинки с лицами чаще описывают как детские и мультяшные. Тон высказывания при этом чаще всего нейтральный или положительный. 4. Отсутствие лица — несомненный минус для 5–10% респондентов (есть разница по странам). Особенно заметно отсутствие лица на картинках, где человек изображен крупно и строго в анфас. 5. В итоге мы приняли совместное решение о том, что на крупных планах лица людей мы прорисовывать будем, а на общих планах персонажи могут быть без лиц. |
Такая маленькая картинка из будущего: представьте, вы ставите фотоаппарат на специально оборудованный стол — и все цифровые фотографии «раскладываются» перед вашим взором на поверхности. Или другая картинка: над столом вдруг появляется трёхмерная рука вашего коллеги из-за океана, которая показывает пальцем нужные фотографии и объясняет, что с ними сделать. Это концепция “surface computing”, которая реализуется с помощью 3D-проектора, веб-камеры и специального софта (видео). Забыли, что происходило на прошлой неделе? На помощь придёт LifeBrowser («браузер жизни»), который записывает все события вокруг: с кем встречались, с кем работали, какие сайты посещали. Всё вышеописанное вовсе не относится к фанта | стике. Лайфблоггинг и прочее — это современные технологии, пусть пока и недоступные публике, а созданные лишь в виде прототипов в научно-исследовательском подразделении Microsoft Research. О последних разработках Microsoft Research было рассказано на недавней конференции Gartner Symposium/ITxpo. В частности, стар | ший исследователь Эрик Хорвиц (Eric Horvits) сообщил, что они испытывают прототип программы для лайфблоггинга в течение нескольких лет и считают её просто бесценной программой: «Тот факт, что люди не имели возможности записывать все события в своей жизни — это катастрофа, — сказал Хорвиц. — Я бы хотел, чтобы уже через три-пять лет программа LifeBrowser использовалась повсеместно». Программа LifeBrowser — это концептуально новый интерфейс. Вся информация привязывается к временной шкале, по которой очень удобно перемещаться в любой год, день и час. Исследователи Microsoft считают принципиально важным сохранять все данные локально, а не в интернете. По их мнению, так человек сможет лучше контролировать их. На локальных домашних серверах будет архивироваться жизнь всех членов семейства.
via InternetNews |
Этот текст будет отображен в HTML отчете, который можно создать после окончания теста
Данные команды разделены на 3 основные группы: Операции (Operations), вспомогательные функции (Auxiliary functions) и проверки (Assertions). Вы можете выбрать нужную вам группу при помощи соответствующего фильтра (выпадающее меню сразу под названием окна). Фильтр групп команд
Команды, которым необходимо изображение, активируют функции записи скриншота сразу после нажатия на соответствующую кнопку. К примеру, чтобы выбрать на какой элемент нажать на экране, выберите команду touch в AirTest Assistant и в окне Device Screen, на активном устройстве, обведите нужный для нажатия элемент. После этого в главном окне (Script Editor) появится соответствующая команда, в нашем случае touch, с изображением в качестве параметра. Как итог, процесс автоматизации выглядит следующим образом (гифка записана с устаревшей версии AirTest IDE):
Если вы по какой-то причине не хотите вручную создавать скриншоты и\или в целом писать код, то можете воспользоваться функцией автоматической записи. Активировать её можно при помощи нажатии на кнопку "камеры" напротив выпадающего меню с группами команд в окне Airtest Assistant. Авт | озапись — штука достаточно точная и удобная, но, само-собой, не является панацеей и не заменит ручного набора кода. Стоит упомянуть ещё 3 горячие клавиши — F5 (запуск скрипта), F10 (остановка запущенного скрипта), Ctrl+L/Cmd+L (создание отчёта на основе законченного теста). Запускать готовые тесты можно и без UI, используя терминал (command line). | Больше информации об этом в целом и о запуске тестов в частности можно найти здесь. Пример отрывка теста, написанного при помощи AirTest фреймворка можно найти под спойлером! Пример автотеста написанного при помощи AirTest (Image Recognition)
Само-собой UI в вашем приложении/игре не состоит сплошь и рядом из уникальных иконок, кнопок, задников и т.п. Плюс ко всему периодически визуально идентичные элементы могут встречаться на одном экране, например кнопки, слайдеры и т.д. Чаще всего в таких случаях AirTest не сможет распознать нужный вам элемент и, либо тест упадет с ошибкой, либо будет выбран неверный элемент интерфейса для дальнейших манипуляций. Пример окна с несколькими идентичными элементами
Специально для таких случаев был разработан ещё один фреймворк, который уже встроен в AirTest IDE. Он Poco и вкратце о нём уже было рассказано в статье с общим обзором Airtest IDE. Подробнее же о данном фреймворке я расскажу в следующей статье. Расскажите, пользовались ли вы уже AirTest IDE и что вы думаете о данном инструменте. Буду рад обсуждению в комментариях! |
Полученные в результате выборки меньшего размера требуют меньше места на устройстве, меньшего объема памяти для обучения и более низкой пропускной способности сети для передачи данных на сервер. Главная проблема этого подхода в том, что когда параметры признаны незначимыми и сокращены на ранней итерации, это может оказать влияние на более поздние итерации. Для решения этой проблемы используются различные методы разрежения по времени и по модели. Рис. 1 Схема разрежения данных Federated Pruning
Разрежение данных начинается с генерации на сервере маски разрежения для переменных (1). Маска бинарная, нули означают, что соответствующие параметры являются незначимыми и подлежат сокращению. Число сокращений соответствует заданному уровню усечения (является гиперпараметром, задается в долях от первоначального количества параметров). Сервер обрезает данные на основе масок и отправляет их клиентам (2). Затем каждый клиент локально обучает эту сокращенную модель и возвращает результат обучения (3). Наконец, сервер объединяет результаты обучения (4) всех моделей от всех клиентов и после усреднения (5) переходит к следующему этапу. По сравнению со стандартным федеративным обучением, федеративное разрежение обрезает данные в начале каждой эпохи, а обрезанные выборки обучаются на клиентах и обученная (под)модель передается по сети. На первом этапе уровень сокращения увеличивается от 0 до S. В зависимости от схемы разрежения это может производиться за один проход или итеративно. Рис. 2 Этапы разрежения FP
Следующий после разрежения (a) этап FP – уточнение (b). На этом этапе уровень разрежения фиксируется на S, и основное внимание уделяется уточнению масок. Отметим, что существует обратное преобразование: если значение в маске инвертиру | ется с 0 на 1, это означает восстановление обрезанного на предыдущем этапе параметра. Этим как раз решается главная проблема подхода FP – возможность ошибочного отсечения не тех параметров. На последнем этапе настройки (с) уровень разрежения и маски фиксируются, а оптимизируются оставшиеся параметры. Эта фаза заканчивается, когда усеченные модели заканчивают обучение. ### Кто на выход? Пора посмотреть, как определять значимость переменных. Обычно для FP используются L1- и L2-нормы, вычисляемые по (одно из):
весовым коэффициентам переменных,
импульсу градиентного спуска (или по градиенту)
произведению веса и величины градиента. L1- и L2-нормы используются как оценка значимости параметров модели. Получ | енные веса значимости сортируют и, используя целевой уровень разреженности, устанавливают порог отсечения. Области матриц с меньшим значением порога будут удалены из данных, полученных с клиентов, для формирования сокращенной модели. На стороне сервера участки с меньшими показателями значимости по-прежнему остаются и будут окончательно удалены в фазе финальной настройки (или восстановлены, если потребуется). В зависимости от способа установки порога отсечения, схемы разрежения бывают неструктурированные – сокращаются менее сильные связи между любыми узлами – и структурированные – сокращаются крупные структуры, группы узлов или слои целиком. Реализованы следующие шаблоны структурной обрезки:
Целая строка/столбец (Whole row/column): удаление всей строки или столбца двумерной матрицы весов W. (Пример тут)
Половина строки/столбца (Half row/column): равномерно разделяем двухмерную матрицу W на [W1;W2] и сокращаем половину исходной строки или столбца. Для матриц размерности больше 2 их сначала преобразуют в двухмерные, применяют указанные шаблоны и возвращают в исходное размерное пространство. ### Повышение качества маски
На этапе уточнения маска все еще переформировывается. Так как сокращенные области в полной модели на сервере получают 0 обновлений от вычислительных узлов, оценка их значимости не меняется. Для остальных областей данных их оценки значимости обновляются. Если значимости несокращенных параметров снижаются, они могут быть сокращены. При этом, чтобы сохранить целевой уровень разреженности, ранее сокращенные параметры должны быть в соответствующем количестве и в соответствии с обновленным набором всех оценок значимости восстановлены. |
В других вариантах лучше оставить оставить 1 ядро на сокет. Параметры, которые выставляются автоматически и которые мы не рекомендуем менять:
— версия контейнера виртуальной машины (Virtual hardware version);
— тип шины виртуальных дисков (Bus type). Это не имеет отношения к типу дисков (SAS, SATA, VSAN) :).
— количество виртуальных сетевых адаптеров (Number of NICs). Если нет специализированных потребностей, то рекомендуем оставить 1. Жмем ОK. 5\. Новая виртуальная машина появляется в списке создаваемого vApp. Жмем Next. 6\. На вкладке Configure Resources просто жмем Next. 7\. При необходимости вносим изменения в поле Computer Name, выбираем сеть, к которой хотим подключить созданную виртуальную машину. В данном случае выбираем сеть Test_Network, что мы создали в предыдущем материале. Жмем Next. 8\. Во вкладке Configure Networking можно посмотреть параметры сети. Тут же можно выбрать опцию Fence vApp. Она позволяет назначить виртуальным машинам в разных vApp одинаковые IP, избегая при этом конфликта IP-адресов. Это удобно, если есть несколько сред для тестирования | или разработки с идентичными ВМ. 9\. На последней вкладке Ready to Complete еще раз внимательно проверяем все параметры виртуальной машины. Если все устраивается, то жмем Finish. 10\. Ждем некоторое время, пока ВМ под Centos развернется. Далее нужно установить соответствующую ОС через подключение образа установочного диска (ISO-образ) или самого диска. Вот подробная инструкция | на этот случай. #### Создание «пустого vApp
Тут совсем все просто. Начало такое же. как и в предыдущем случае. Единственное — в этот раз мы не жмем на Add New Virtual Machine. Вместо этого жмем Next до победного. В этом „пустом“ vApp потом аналогично развернуть ВМ из шаблона или с нуля (без ОС) так же, как мы это уже проделали сегодня. #### Из важного
Кастомизация
При первом включении ВМ происходит так называемая кастомизация, когда к виртуальной машине применяются все заданные настройки:
• имя виртуальной машины; • настройки сети; • SID; • пароль администратора. Если кастомизация недоступна, то параметры ВМ можно настроить вручную через консоль. Пароль от гостевой ОС
О том, где посмотреть пароль к гостевой ОС, читайте здесь
Собственно, на сегодня все. Можно идти тренироваться на кошках в Cloudlite.ru :) Вопросы по данному материалу и пожелания по темам будущих tutorial оставляйте в комментариях. Успехов в освоении vCloud Director! :) vCloud Director для самых маленьких (часть 1): настройка сети |
А вот масштабы этой катастрофы вполне могли от вас ускользнуть. Так, если в вашем проекте есть хотя бы несколько зависимостей, то скорее всего метод fs.closeSync у вас уже переопределён (и, может быть, не один раз). Огромное количество пакетов модифицирует чужое API, но лишь немногие из них имеют хоть сколько-нибудь вескую причину для этого. Среди "рекордсменов" — graceful-fs с 12 миллионами установок в неделю, который переопределяет десяток методов из fs. Так же стоит отметить async-listener, переопределяющий 46 различных методов, включая злополучный `crypto.randomBytes`, что меня несколько напрягло, когда я впервые это обнаружил. Представьте, каково будет искать баг, вызванный таким переопределением из какой-нибудь зависимости в глубине иерархии. Впрочем, причин для переживаний нет, потому что... 2\. Пакет может определять изменённое API вносить в него дополнительные исправления
Да, некоторые пакеты так и поступают (чаще всего в отношении того же `graceful-fs`) используя чудеса акробатики вроде `/graceful-fs/.test(fs.closeSync.toString())`. Так что, если вы вдруг столкнулись с непонятными проблемами в стандартной библиотеке, попробуйте просто установить парочку случайных npm пакетов. Или просто выключите компьютер и прогуляйтесь по ближайшему парку, жизнь слишком коротка, чтобы разбираться во всём этом. 3\. Он может отправлять аналитику
Adblock вас не защитит, если дело происходит в консоли, и авторы некоторых пакетов успешно этим пользуются. Некоторые отправляют самую базовую информацию, как, например, ecdsa-csr:
[code]
// POST https://api.therootcompany.com/api/therootcompany.com/public/ping
{
"package":"ecdsa-csr",
"version":"1.1.1",
"node":"v10.1 | 4.2",
"arch":"x64",
"platform":"linux",
"release":"4.9.125-linuxkit",
"action":"install",
"ppid":"eDSeYr9XUNRi9WhWli5smBNAvdw="
}
[/code]
Некоторые не так стесняются. Вот, например часть отчёта serverless (оригинал раза в 2 больше):
[code]
// POST https://tracking.serverlessteam.com/v1/track
{
"userId":"0e32cba0-14ef-11e9-9f89-b7ed4ca5dbba",
"event":"framework_stat",
"properties":{
"version":2,
"general":{
"userId":"0e32cba0-14ef-11e9-9f89-b7ed4ca5dbba",
"context":"install",
| "timestamp":1547135257977,
"timezone":"GMT+0000",
"operatingSystem":"linux",
"userAgent":"cli",
"serverlessVersion":"1.35.1",
"nodeJsVersion":"v10.14.2",
"isDockerContainer":true,
"isCISystem":false,
"ciSystem":null
}
}
}
[/code]
К счастью, `jquery` никакой статистики не отправляет, так что его по-прежнему можно устанавливать в тайне ото всех. До поры до времени. 4\. Ваш компьютер может использоваться вместо CI/CD сервера
Зачем вам компилировать ваш пакет, если это могут сделать ваши пользователи при установке? Можно получить дополнительную ачивку, если указать только мажорную версию требуемого компилятора, например `typescript@3`. Одна надежда на грамотных ребят из Microsoft, которые умеют делать правильный semver. Можно ли зайти ещё дальше? Конечно! [code]
"postinstall": "eslint --ext .js,.vue --fix src"
[/code]
Теперь можно спать спокойно — все пользователи получат идеально отформатированные исходники вашего пакета. 5\. Он может попытаться напугать вас
Если вы посмотрели все серии Mr. Robot, но всё ещё недостаточно замотивированы, чтобы прочитать Computer Networks и сделать что-нибудь действительно впечатляющее, то есть простое решение — продемонстрируйте миру свои умения посредством пары строчек в `postinstall` скрипте. Именно так и поступил автор pizza-pasta (а заодно подарил мне КДПВ). [code]
{
"name": "pizza-pasta",
"author": "Zeavo",
"scripts": {
"install": "mkdir -p ~/Desktop/hacked && touch ~/Desktop/hacked/pwnddddd && wget https://imgur.com/download/KTDNt5I -P ~/Desktop/hacked/",
"postinstall": "find ~/.ssh | xargs cat || true && printf '\n\n\n\n\n\nOH HEY LOOK SSH KEYS\n\n\n\nHappy Birthday! |
Как и любой другой мелкий разработчик, я проводил бесчисленные часы в чате, за консультациями, составлением длинных электронных писем и сообщений об ошибках. В одной из следующих статей, посвящённой составлению отчётов об инцидентах, я покажу документы, которые отправил в Google. Последний день в Google
Кроме того, нужно было понять наши ошибки и разработать стратегию развития продукта. Не все в команде знали об инциденте, но было совершенно ясно, что у нас большие неприятности. В Google я сталкивался с человеческими ошибками ценой в миллионы долларов, но культура Google спасает сотрудников (за исключением того, что инженерам приходится потом сочинять длинные отчёты). На этот раз Гугла не было. На карту поставлен наш собственный маленький капитал и наша тяжёлая работа. ### Стойкие Гималаи нам говорят... Такой удар я получил первый раз. Это могло изменить будущее нашей компании и мою жизнь. Этот инцидент преподал мне несколько уроков бизнеса, в том числе самый важный — держать удар. В то время у меня работала команда из семи инженеров и стажёров, и Google требовалось около десяти дней, чтобы ответить нам по поводу этого инцидента. Тем временем мы должны были возобновить разработку, найти способ обойти приостановку счетов. Несмотря на всё, мы должны были сосредоточиться на функциях и нашем продукте. Стихотворение «Стойкие Гималаи нам говорят»
Почему-то у меня в голове постоянно крутилось одно стихотворение из детства. Это была моя любимая книга, и я помнил её слово в слово, хотя в последний раз читал более 15 лет назад. ### Что мы на самом деле сделали? Будучи очень маленькой командой, мы хотели как можно дольше воздержаться от расходов на аппаратное обеспечение. Проблема Cloud Functions и Cloud Run заключалась в тайм-ауте. Один инстанс будет постоянно скрапить URL-адреса со страницы | . Но через 9 минут наступит тайм-аут. Тогда вскользь обсудив проблему, я за пару минут набросал на доске сырой код. Теперь понял, что у того кода была масса архитектурных недостатков, но тогда мы стремились к быстрым циклам исправления ошибок, чтобы стремительно учиться и пробовать новые вещи. Концепт Announce-AI на Cloud Run
Чтобы преодолеть ограничение тайм-аута, я предложил использовать POST-запросы (с URL в качестве данных) для отправки заданий в инстанс и — запускать параллель | но несколько инстансов, а не составлять очередь для одного. Поскольку каждый инстанс в Cloud Run скрапит только одну страницу, тайм-аут никогда не наступит, все страницы будут обрабатываться параллельно (хорошее масштабирование), а процесс высоко оптимизирован, поскольку использование Cloud Run происходит с точностью до миллисекунд. Скрапер на Cloud Run
Если присмотреться, в процессе не хватает нескольких важных деталей. 1. Происходит непрерывная экспоненциальная рекурсия: инстансы не знают, когда остановить работу, потому что оператора break не предусмотрено. 2. У POST-запросов могут быть одни и те же URL. Если есть обратная ссылка на предыдущую страницу, то сервис Cloud Run застрянет в бесконечной рекурсии, но хуже всего то, что эта рекурсия умножается экспоненциально (максимальное количество инстансов было установлено на 1000!) Как вы можете себе представить, это привело к ситуации, в которой 1000 инстансов делают запросы и записи в Firebase DB каждые несколько миллисекунд. Мы увидели, что по операциям чтения Firebase в какой-то момент проходило около 1 миллиарда запросов в минуту! Сводка транзакций на конец месяца для GCP
### 116 миллиардов операций чтения и 33 миллиона записей
Экспериментальная версия нашего приложения на Cloud Run сделала 116 миллиардов операций чтения и 33 миллиона записей в Firestore. Ох! Стоимость операций чтения на Firebase:
[code]
$ (0.06 / 100,000) * 116,000,000,000 = $ 69,600
[/code]
### 16 000 часов работы Cloud Run
После тестирования из остановки логов мы сделали вывод, что запрос умер, но на самом деле он ушёл в фоновый процесс. Поскольку мы не удалили сервисы (мы первый раз использовали Cloud Run, и тогда действительно не понимали этого), то несколько сервисов продолжали медленно работать. |
Просто, согласитесь? С Spring Data JPA нам не нужно писать DAO (Java Data Acces Object) код. Просто объявите интерфейс, расширяющий интерфейс `CrudRepository`, в котором определены такие методы CRUD как: `save()`, `findAll()`, `findById()`, `deleteById()` и т.д. Во время выполнения Spring Data JPA автоматически сгенерирует код. Обратите внимание, что мы должны указать тип класса модели и тип поля первичного ключа при расширении `CrudRepository`: `CrudRepository<Customer, Long>`. ## 7\. Создание Service Class
Затем, создайте класс `CustomerService`:
[code]
package net.codejava.customer;
import java.util.List;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Service;
import org.springframework.transaction.annotation.Transactional; @Service
@Transactional
public class CustomerService {
@Autowired CustomerRepository repo;
public void save(Customer customer) {
repo.save(customer);
}
public List<Customer> listAll() {
return (List<Customer>) repo.findAll();
}
public Customer get(Long id) {
return repo.findById(id).get();
}
public void delete(Long id) {
repo.deleteById(id);
}
}
[/code]
Обратите внимание на аннотацию `@Transactional`, которой помечен наш класс. Это означает, что все методы этого класса будут перехвачены Spring Data JPA для управления транзакциями. И экземпляр интерфейса `CustomerRepository` будет внедрён в этот класс:
[code]
@Autowired CustomerRepository repo; [/code]
Это похоже на магию, поскольку мы не пишем DAO код, но Spring Data JPA автоматически создаст реализацию во время выполнения. Как вы можете видеть, все методы в данном классе предназначены для операций CRUD. Он просто делегирует весь вызов объекту `CustomerRepository`. Вам может показаться этот класс избыточным, но он необходим, для отделения уровня business/service от уровня repository/DAO. ## 8\. Создание контроллера Spring MVC
Создайте класс `CustomerContoroller` для обработки всех запрос | ов от клиентов:
[code]
package net.codejava.customer;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.stereotype.Controller; @Controller
public class CustomerController {
@Autowired
private CustomerService customerService; // здесь будут методы обработки
}
[/code]
Это типичный класс Spring MVC Controller, который аннотирован с помощью `@Controller`. Вы можете увидеть, что экземпляр `CustomerService` внедряется в этот объект с помощью аннотации `@Autowired`. Мы напишем методы обработки в следующих секциях. ## 9\. Добавление списка клиентов
На домашней странице нашего приложения будут отображаться все клиенты, для этого добавьте соответствующий обрабатывающий метод в | наш `CustomerController` класс:
[code]
@RequestMapping("/")
public ModelAndView home() {
List<Customer> listCustomer = customerService.listAll(); ModelAndView mav = new ModelAndView("index");
mav.addObject("listCustomer", listCustomer);
return mav;
}
[/code]
Домашняя страница просмотра (`index.jsp`) должна выглядеть следующим образом:
[code]
<%@ page language="java" contentType="text/html; charset=ISO-8859-1"
pageEncoding="ISO-8859-1"%>
<%@ taglib uri="http://java.sun.com/jsp/jstl/core" prefix="c" %>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01
Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1">
<title>Customer Manager</title>
</head>
<body>
<div align="center">
<h2>Customer Manager</h2>
<form method="get" action="search">
<input type="text" name="keyword" />
<input type="submit" value="Search" />
</form>
<h3><a href="/new">New Customer</a></h3>
<table border="1" cellpadding="5">
<tr>
<th>ID</th>
<th>Name</th>
<th>E-mail</th>
<th>Address</th>
<th>Action</th>
</tr>
<c:forEach items="${listCustomer}" var="customer">
<tr>
<td>${customer.id}</td>
<td>${customer.name}</td>
<td>${customer.email}</td>
<td>${customer.address}</td>
<td>
<a href="/edit?id=${customer.id}">Edit</a>
<a href="/delete?id=${customer.id}">Delete</a>
</td>
</tr>
</c:forEach>
</table>
</div>
</body>
</html>
[/code]
Теперь вы можете запустить веб-приложение. |
И таких вопросов было много. Мне кажется, в конечном итоге я с этим разобрался, но, чёрт, всё это нетривиально и неочевидно, к тому же есть множество странных небольших тонкостей. Дэйв: Я полностью разделяю твою боль. Меня так расстраивает то, что онлайн существует всего пара действительно замечательных ресурсов по SwiftUI. Для меня это Hacking with Swift Пола Хадсона. Примерно 80% моих знаний о SwiftUI взято с его сайта и его видео. Он организовал отличный процесс обучения: видео, в которых показывается один уровень глубже тривиального примера, после которого твои знания становятся тривиальными «плюс немного». Это неполный пример, в нём всё равно много шероховатостей, о которых ты говорил. Я уверен, что продолжу сталкиваться с такими проблемами: ты хочешь сделать что-то чуть большее, чем самое очевидное, но внезапно оказывается, что ты падаешь с обрыва, и остаётся только пожелать себе удачи. Помню, как в начале весны встретил пару людей, занимающихся обучением в сообществе Apple. Это те люди, которые много выступают на конференциях, проводят воркшопы, и так далее. Они говорили: «Знаете что? Похоже, весь 2020 год мы не сможем ездить на конференции, мы не сможем делать многое. Эй, Apple, в нашем сообществе есть множество очень талантливых преподавателей с кучей свободного времени. Было бы здорово, если бы ты этим воспользовалась». Печально, что уже почти конец года, а компания, похоже, так этим и не воспользовалась. Непохоже, что она сделала какие-то шаги в этом направлении, чтобы использовать всех этих людей, отлично умеющих объяснять материал и | создавать примеры приложений, в том, чтобы проделать эту работу, которая могла бы помочь людям в твоём и моём окружении. Я по-настоящему сочувствую тем, кто приходит в SwiftUI без десятков лет опыта программирования. Если это первое приложение, которое вы изучаете, то в некотором смысле оно довольно лёгкое. Очень примитивное приложение SwiftUI на самом деле проще собрать, наверно, проще, чем большинство примитивных приложений UIKit. Но как только вы начинаете делать что-то большее, всё мгновенно становится очень сложным. | Я также думаю о том, что лучше всего для создания документации подойдут люди, которые создают платформу, но в случае с документацией это сделать сложно. Они могут работать над документацией, чтобы она была доступной в процессе выпуска технологий. Я сочувствую всем, кто обучает разработчиков платформ Apple — когда появляется новый SDK или выпускается новая бета, им приходится не спать по три дня, пытаясь суматошно обновлять все свои материалы и раскрывать возможности новых функций. Они выполняют отличную работу, и я ценю её, но суматохи в ней быть не должно. Можно было бы сделать так, чтобы отдел документации Apple работал над ней согласованно с людьми, месяцами пишущими API. Поэтому сразу в день их выпуска в документации был бы замечательный набор примеров кода, демонстрирующих способы использования API. Ты совершенно прав, особенно в отношении SwiftUI — проблема в отсутствии традиционной документации... Если зайти в документацию по `Text` в SwiftUI, то у типа `View` есть множество различных модификаторов, которые можно применять к этому `View`. Их количество, кажется, исчисляется сотнями, если не больше. Однако наличие огромного списка всего того, что можно сделать с `Text`, ничем не помогает. Мы хотим знать следующее: «Как сделать, чтобы текст выглядел так?», «Что если мне нужен многострочный текст?», «Что если я хочу, чтобы многострочный текст состоял из определённого числа строк, после чего выравнивался по середине?» Реализуя подобные вещи, нам нужны примеры. Я не думаю, что общий список случаев, которые люди используют в реальности, особо широк. Я понимаю вашу боль. * * *
#### На правах рекламы
Воплощайте любые идеи и проекты с помощью наших VDS с мгновенной активацией на Linux или Windows. Сервер готов к работе через минуту после оплаты! |
В наше время трудно обойтись без компьютера – это факт, так как данный аппарат является основным источником информации, развлечений, а для некоторых и дохода. На данный момент выгоднее всего – это естественно собрать ПК самому. Сборка ПК – это процесс, который может доставить множество проблем, неприятностей, но при этом, сборка ПК самостоятельно может существенно сэкономить Вам деньги. Комплектующими в магазинах электроники могут стоять существенно дороже. В данной статье будут рассмотрены подбор как новых комплектующих, так и БУ. Мы рассмотрим несколько вариантов при которых Вы останетесь как в плюсе, так и в минусе. Хотелось бы начать с основ! Что, собственно, нужно, для работоспособности Вашего будущего ПК
Для сборки полностью функционального ПК вам необходимы следующие комплектующие:
Материнская плата,
Видеокарта,
Процессор,
Система охлаждения,
Оперативная память,
Блок питания,
Жесткий диск/SSD,
Корпус,
Периферия и манипуляторы
Составив полный список того, что потребуется докупить для сборки компьютера, необходимо определиться, что, собственно, удачнее выбрать в первую очередь? Первоначальное, что необходимо сделать во время выбора комплектующих – это определиться зачем Вам собственно нужен компьютер. Для использования компьютера в браузере и ютубчике + работа в Microsoft office — это одна сборка. Для игр и развлечений – это уже совсем другая сборка. Некоторые юзеры наивно полагают, что, собрав средний игровой ПК – они смогут работать везде, во всех задачах. По большей степени это так и работает. Но есть моменты, в которых для конкретной профессиональной области необходимо собирать сборку именно под неё. ### Процессор
Мы советуем вам начать с выбора процессора, так как это первостепенно-важная деталь вашего компьютера, которая сыграет одну из важнейших ролей в производительности | в программах, играх и любых вычислительных задачах. Сейчас на рынке есть 2 крупных производителя процессоров – Intel и AMD. Intel зачастую с теми же характеристиками что и AMD немного превосходит последних по производительности, однако он выйдет Вам дороже. Следовательно, если у вас ограниченный бюджет, то лучшим решением будет AMD, если же вы хотите максимальную производительность и готовы потратиться, то берите Intel. Если же погрузиться несколько глубже в рынок процессоров, то на момент 1 февраля 2021 года мы увидим примерно следующую картинку:
Из бюджетных камней присутствуют: AMD Ryzen 2600 | \AMD Ryzen 1600AF – оба этих процессора сейчас являются наиболее актуальными из низа рынка, брать что-то дешевле и проще – значит собрать офисный, далеко не самый производительный ПК. Оба этих процессора имеют 6 ядер, на каждое ядро имеют по 2 потока. Архитектура процессоров старовата, но при этом купив один из вышеупомянутых Вы не будете испытывать дискомфорт при работе с компьютером. И смело сможете называть свой компьютер средне-игровым, в случае добавления достойной видеокарты и наличии как минимум 16 ти гб ОЗУ. Сборка при наличии вышеупомянутого процессора предоставит Вам способность прокачать сборку в дальнейшем при этом на старте сэкономить на процессоре. В случае, если присутствует аллергия на AMD, рекомендуем следующий процессор от конкурента Intel:
Intel Core i5 9400F – имеет на борту 6 ядер, на каждое ядро 1 поток
Из-за архитектуры Coffee lake Вам обойдётся дороже, как и сам процессор, так и материнская плата. В дополнение трёх, вышеупомянутых экземпляров я хотел бы пролить свет на такой процессор, как AMD Ryzen 3100. На борту процессора 4 ядра 8 потоков. Стоит он не сильно меньше выше представленных камней от AMD, но при этом у него есть чем конкурировать на рынке бюджетных игровых процессоров. Конкуренция работает за счёт новой архитектуры процессора, а именно “Zen2”. Данная архитектура открывает пользователю доступ к высокопроизводительным ядрам. Данные ядра интересны в первую очередь тем, кто собирает ПК для игр. Поскольку многоядерные процессоры понадобятся в первую очередь при работе в профессиональной сфере, к примеру, в сфере стриминга или любой другой сферы, в которой Вы увидите “Миллион” открытых программ. |
Вот посмотрел, сегодня как никогда популярны темы на извечный наш вопрос «кто виноват и что делать» и решил высказать свою точку зрения. Налейте себе чаю и откиньтесь на спинку стула. Итак начнем с того что большинство людей винит политиков во всем, от войн, до неубранной лестничной площадки. Мое мнение в данном вопросе (после близкого общения с некоторыми политиками):
Политика в наших странах находится в состоянии «неустойчивого равновесия» и когда мы пытаемся туда серьезно вмешаться как нам кажется, в итоге мы немножко потеснив одних, даем нажиться другим. Но это не значит что вообще надо сидеть и молчать, без нашей помощи каким бы ни было правительство оно не может уследить за всем от ракет «Тополь-М» до «Пьющего мужа Тети Нюры с 3-го этажа». Помощь например может выражаться в информировании вышестоящих структур о проблемах на местах. Некоторые придерживаются мнения что вот чево мелочиться и убирать лестничную площадку? Опять же смотрите выше, да и никто не мешает вам если так все плохо отказаться от услуг недобросовестного ЖЭК-а и заняться самим своим благоустройством (прецеденты были, но это не так просто как кажется). Ну и как минимум хотябы давайте «не сорить», т.е. не создавать себе и людям проблем без причины. Да и как мы знаем любое какое бы ни было огромное строение(программа) начинается с первого кирпичика(строки кода) который надо кому то положить, и пока этого никто не сделает так и будет пусто. Суть всего вышесказанного в том что не надо ждать решения своих проблем с «откудато» и винить кого то в своих неудачах | , надо в них разобраться и попробовать исправить. А также нет ничего плохого в правильно сделанном поступке. Пусть это будет всего лиш окурок выкинутый вами в урну. Даже может быть лишнее спасибо девушке в ларьке. Положим первый камень, и может быть построим замок в котором будем с вами счастливо жить
Ну и в итоге хотелось бы предложить следующую идею, т.к. | мы работники ИТ фронта предлагаю скопом навалиться и сделать следующее:
Суть проблемы: Часто мы видим в новостях описание каких либо резонансных событий. Со временем данные события уходят из разряда интересных и их забывают. В итоге виновные ненаказаны, история забыта. Мое предложение: Предлагаю сделать простейший сайт табличку:
Проблема | Предпринятые Действия (хронология событий) | Итог
И наполнять ее всем вместе. Что то вроде глобального to-do листа. Для примера приведу историю со сбитыми людьми в харькове на троллейбусной остановке. В итоге так и не удалось найти в интернете окончания данной истории, т.к. расследование длилось долго и все кто был непричастен уже успели об этом забыть, а для СМИ это уже было не так интересно. Что мы с этого получим: А получим мы с этого неподвластный никому, хороший инструмент для отслеживания событий. А так же потешим свое самолюбие что вот сделали хорошее политическое дело. Если кого то заинтересовала данная идея, прошу отписаться. Получилось немного сумбурно, много мыслей так и не высказал (может по ходу чтото вставлю).
ну и не буду изменять своему стилю:
ЗЫ: Прошу не трогать карму, т.е. не повышать (т.к. сим хочу откреститься от подозрений в том что я написал это все ради кармы и решил вроде как «Выплыть на волне данной темы»). и не понижать т.к. этим вы создадите дизбаланс (т.е. никто не повышает, хотя может и хочет, а вы понижаете). Т.е. нравится, читайте, думайте, предлагайте. Не нравится, пройдите мимо или минусаните топик. |
Параллельно, а не когда сотрудник «неожиданно» уволился, стоит начинать искать ему замену. Так будет честно по отношении к нему и | к вам. Добавлю, что важнейшая мотивация не работает, если у | сотрудника неадекватно низкая ЗП или в компании ужасная культура. Базовые уровни потребности в пирамиде Маслоу должны быть реализованы в любом случае. |
## Что дальше? Далее следует постановка и планирование задач для разных отделов, включая разработчиков. На этом этапе создаются пользовательские истории и задачи, формируются спринты и распределяются задачи по разным командам, работающим над продуктом. Тестируются различные версии продукта, включая прототипы, демо-версии и полностью готовые решения. Результаты тестов анализируются, после чего формируются выводы. Кстати, именно на этом этапе проводится А/Б тестирование, о котором мы говорили в одной из ранее опубликованных статей. Что касается практических кейсов продакт-менеджмента, то вот один из них, кейс Gett по изменению прогноза времени прибытия машины до места посадки. Это яркий пример того, как простое решение может привести к интересным результатам. Продолжительное время подачи машины клиенту компании прогнозировалось с точностью до минуты. Выяснилось, что если реальное время оказывается хотя бы на минуту больше прогнозного, клиенты расстраиваются. Это оказывает негативное влияние как на его поведение, так и на дальнейшие метрики. Специалисты компании предположили, что изменение прогноза времени подачи машины с точного на интервал позволит исправить эту ситуацию. Так и получилось — после того, как приложение стало показывать время подачи, как, например, «меньше 5 мин» вместо «2 минуты», уровень удовлетворения клиентов сервисом увеличился. В конечном итоге конверсия выросла на 1 процентный пункт. При объемах поездок в Gett речь идет о миллионах долларов США. ## Б | азовый багаж знаний продакт-менеджера
Экспертом во всех смежных отраслях продакт-менеджеру быть не нужно. Например, в ходе работы не обязательно использовать сложные математические инструменты. Нужна, прежде всего, база статистики для того, чтобы понимать результаты анализа и уметь принимать на их основе правильные решения. Продакт-менеджеру достаточно базовых знаний, вроде умения отличать медиану от среднего, процент | от процентного пункта, корреляцию от причинно-следственной связи. Это знания, необходимые каждый день. А еще очень полезно знать основы вероятностей, это позволяет прокачать «продуктовое мышление», правильно оперировать фактами, разбираться в метриках и формулировать гипотезы. У грамотного продакт-менеджера, который слышит чей-либо доклад, например, о средней зарплате в Москве, сразу возникает ряд вопросов, включая «Почему средняя? А покажите нам распределение». Еще очень желательно хотя бы на базовом уровне разбираться в SQL. В частности, нужно понимание логики написания запросов и умение работать с основными функциями. Это помогает очень быстро проверять гипотезы без привлечения аналитика. Важно хорошо разбираться и в инструментах визуализации данных. Так, для day-to-day анализа проще использовать хорошо знакомые всем инструменты вроде Excel или Google Sheets. А вот для построения регулярных отчетов нужно что-то более мощное, инструменты бизнес-аналитики. Понимание логики их работы позволяет грамотно ставить задачу аналитику, или даже делать простые отчеты под свои нужды. Что касается перспектив профессии, то эксперты положительно их оценивают. В ближайшем будущем специальность «продакт-менеджер» будет становиться все более востребованной, несмотря на текущий кризис. И это касается не только сферы информационных технологий, но и ритейла, банковской сферы и других отраслей. |
Здесь видны и суточные колебания в зависимости от приходящих пользователей (люди обычно работают днём и спят ночью), и еженедельные (на выходных характер запросов меняется — люди в основном отдыхают, смотрят видео, заказывают доставку еды...), и колебания из-за рестартов отдельных серверов. Это осложняет анализ, но если обратить внимание на локальные минимумы по ночам, становится видно, что в ночь на 21 число локальный минимум стал заметно выше и короче по времени. То есть часть использованной памяти не освободилась, несмотря на сборку мусора. Именно это — признак утечки памяти. ### Как получаются soft-утечки
Очень коротко: причина в несовпадении сроков жизни объектов. Если подробнее, то причина в том, что долгоживущий объект ссылается на короткоживущие (следовательно, сборщик мусора не может их удалить). Эту формулировку можно разбить на два варианта:
1. Неожиданно долгоживущий объект ссылается на короткоживущие объекты. 2. Долгоживущий объект неожиданно ссылается на короткоживущие объекты. Вот конкретные механизмы возникновения утечек, о которых я знаю:
1. Неожиданная ссылка на объект из глобальных переменных (`window` в браузере, `global` в Node.js) — как прямая, так и через несколько вложенных объектов. 2. Ссылка на объект из неожиданно долгоживущего колбэка (`setInterval`, обработчики событий и тому подобное). Если не остановить `setInterval`, его колбэк останется в памяти со всеми объектами, на которые он ссылается. Если не отписаться от события — аналогично, обработчик события со всеми объектами останется в памяти. Типичный пример: обработчики событий `DOMContentLoaded` и `load`. Эти события в процессе открытия страницы наступают только один раз, но немногие разработчи | ки от них потом отписываются. 3. Неожиданная ссылка из замыкания. Если функция ссылается на объект в замыкании, и в этом же замыкании лежит большой объект, который самой функцией не используется, он всё равно может остаться в памяти. Вот пример утечки из фреймворка Meteor. Больше о замыканиях можно прочитать здесь. 4. Неожиданная ссылка в кэше или мемоизаторе. Это одна из основных проблем программирования (напомню, всего их две: выбор имён, очистка кэша и ошибка на единицу). Если вы добавляете кэш или мемоизацию — сразу же продумайте, как ограничить их максимальный размер и в какой момент они будут чиститься. Немного сложнее, если эти возможности «из коробки» предоставляет используемый фреймворк: в процессе | его изучения такие тонкости можно упустить, на тестовых проектах уровня «Hello, world!» утечки чаще всего не успевают проявиться, и в результате с проблемами можно впервые столкнуться только на серьёзном проекте. Так как проблема существует довольно давно, действия по её устранению хорошо известны: контроль размера кэша, использование WeakMap и WeakSet, выбор подходящего алгоритма кэширования (почитайте статьи на Хабре и в Википедии). ### Как их обнаружить
В продакшене надо собирать данные о памяти клиентов и серверов. Напомню, что в Chrome это можно сделать с помощью `performance.memory`, а в Node.js — с помощью `process.memoryUsage()`. По собранным данным можно и нужно строить графики, и очень желательно настроить автоматические алерты, чтобы дежурные получали сигнал при неожиданном росте потребления памяти. Есть хорошее правило: чем раньше обнаружишь ошибку — тем проще найти причину. Оно применимо и в нашем случае: часть утечек можно обнаружить и быстро устранить ещё до выкатывания релиза. Если у вас есть А/Б-тестирование, то собираемые данные о памяти должны присутствовать в его результатах (да и другие технические метрики тоже неплохо показывать — например, Core Web Vitals). Это позволит найти и починить утечку ещё на стадии эксперимента. Дополнительный бонус: при А/Б-тестировании легко понять, какой код включался в эксперименте и отсутствовал в контрольной группе, то есть область поиска в коде сильно сужается. Ещё один этап, на котором можно найти утечку, — тестирование релиза. Для клиентского кода можно написать на Puppeteer тесты для поиска утечек. Основная идея в том, что в Chrome DevTools (а следовательно, и в Puppeteer) есть команда queryObjects() — она возвращает количество объектов, которые живы (на них кто-то ссылается) и принадлежат заданному классу. |
Чичерина, feat. Сим </artist>
<title> Christmas (torrent-single)</title>
</tune>
</item>
</items>
</event>
</message>
В результате получаем:
3\. Другие работы с XML консолью
Если кому то показалось, что работа с консолью ограничена только этими, сугубо специфическими сферами применения, то он не прав. | Для примера приведу вариант отправки запроса на подписку:
<presence to='J | ID который хотите добавить'
type='subscribe'
xml:lang='ru'>
<status>
Сообщение, которое будет отправлено. </status>
</presence>
ПыСы. Всё это, а так же многое другое Вы сможете почерпнуть из официальной вики жуйки http://juick.info/ и энциклопедии помощи новичкам в освоении Jabber http://jabberworld.info/ |
Что вы сами думаете по этому поводу?» Выслушайте мнение команды, желательно каждого человека. Вполне возможно, они не видят проблему так же, как вы. Разговор может вылиться в дискуссию, но он даст вам новое видение на ваши опасения, поможет сформулировать, что же на самом деле является проблемой. Здесь мы не только до конца формулируем недовольство ситуацией (D), но и работаем с сопротивлением (R). Уменьшаем его за счет появления точки синхронизации, из которой все одинаково смотрят на проблему. Как в итоге выглядела ситуация. Я хотел быть увереннее в долгосрочном планировании, но мне не хватало контекста: сколько мы реально что-то делаем. Плюс хотел удачнее закрывать спринты — на тот момент 40-50% от взятых задач не закрывались. Мы брали задачи, но никто не мог сказать, сколько времени уйдет на их решение. Даже попытки оценить сразу отбрасывались. У команды было желание не таскать задачи из спринта в спринт и не гореть в овертайме. Процесс переноса задач между спринтами или отказ от них сильно демотивировал. Вопросов, почему мы так делаем и как к такой ситуации пришли, при этом не возникало. В результате мы пришли к одной боли: мы хотели уменьшить страх от неизвестности объемов задач. Это было очень общее понимание проблемы, но оно неплохо у всех отозвалось. Оказалось, мы испытывали боль не от того, что не успеваем. А потому, что не понимали, какой объем займет работа — было бесконечное месиво из задач, которое сложно объять и понять. Я тогда выскочил на белом коне: «У нас есть непонимание, так давайте трекать время! Это классная идея!» На что получил реакцию: «А зачем?» Объясняя себе эту реакцию, я понял, что трекинг времени — это абсолютно контринтуитивная вещь, которую непросто привнести в мир IT. В заказной разработке эта история еще плюс-минус понятна, потому что заказчик выставляет бюджет и вы в рамках этого бюджета тратите время на решение поставленных задач | . В продуктовой же истории вообще нет прямой связи, как работать с оценками времени. Я вернулся к теории и понял, что наступил момент, когда мы предлагаем решение, выдвигая гипотезу. ## V — Видение будущего
Мы не говорим, что точно знаем секрет успеха. Мы делаем предположение: «Вот это, скорее всего, даст нужный результат и решит нашу проблему. Наверное». Ключевое слово — наверное. Это очень важный момент — честно сказать об от | сутствии 100% уверенности, что идея сработает. Потому что ни вы, ни команда не знаете, получится ли у вас. То же самое делают продакты, когда тестируют гипотезы. Так звучала моя гипотеза: «Может, попробуем отмечать затраченное время в задачах? Это даст нам статистику, необходимую для будущего планирования». Так, четко проговаривая, через какие действия мы придем к цели, можно проработать Vision, или видение будущего (V). ### Сбор урожая
После выдвижения гипотезы собираем первичный фидбэк и опасения. Это может быть как «Точно не сработает!», так и техническая мантра, которую мы часто себе повторяем: «Работает – не трогай!» Часто на реакцию влияет негативный опыт, который был в другой компании или в этой же команде. Вспомнятся все вьетнамские флешбэки. Еще мы склонны возводить дурной опыт в абсолют: «Тогда пробовали, и это не сработало. Было так плохо, что повторять не хочется!» Будет и страх изменений. Нашему мозгу энергозатратно выстраивать новые нейронные связи, создавать другие паттерны для действий, поэтому мы интуитивно избегаем изменений. Страхи — это то, с чем нужно работать. Поэтому важно выслушивать и фиксировать все опасения. Делайте это максимально прозрачно, четко проговаривайте: «Так, я услышал это опасение и записал его». Это уменьшает сопротивление изменению (R) просто за счет того, что человек чувствует себя услышанным. Мы с командой выявили три опасения:
Опасение #1: Но ведь к нам потом придут и скажут, что мы не дорабатываем. Мы же не работаем 8 (16-20-40) часов в день. Опасение #2: Мы будем забывать отмечать время, а потом мучительно вспоминать, сколько было затрачено. И вообще, это новая история, непонятно, как и зачем трекать. Опасение #3: Слишком много контекстов и переключений. |
В этом роль платформы обмена данными под названием «X-Road», которая используется с 2001 года. Так же, как шоссе, она соединяет базы данных и реестры государственного сектора, местных муниципалитетов и предприятий, организуя для них режим реального времени, безопасный и регулируемый обмен данными, сохраняя контролируемый след после каждой операции. Вот снимок экрана трансляции, показывающий все запросы на «X-Road» по всем сервисам, что облегчает дело. И это реальная картина всех связей между базами данных государственного и частного секторов. Как видите, здесь вообще нет центральной базы данных. Конфиденциальность и приватность, безусловно, очень важны. Но в цифровом мире надёжность и целостность информации имеют решающее значение для операций. Например, если кто-то изменит ваши записи в медицинской карте, к примеру, аллергию без вашего ведома или вашего врача, лечение может привести к смерти. Вот почему в цифровом обществе для системы, подобной эстонской, когда почти нет бумажных оригиналов, когда почти только цифровые оригиналы, целостность данных, правила обмена данными, программных компонентов и файлы журналов первостепенны. Мы используем собственный блокчейн, который мы изобрели в 2007 году, ещё до того, как блокчейн обрёл популярность, чтобы проверять и гарантировать целостность данных в реальном времени. Блокчейн — наш аудитор, он обещает, что никакой доступ к данным или их манипулирование не останется без записи. Владение данными — это ещё один ключевой принцип в системе проекта. Вас не беспокоит, что правительства, технические компании и другие компании во всём мире требуют данные, которые они уже собрали о вас, вообще отказыва | ются давать доступ к этой информации, и часто не удаётся доказать, как она использовалась или передавалась третьим лицам? Эта ситуация кажется мне довольно тревожной. Эстонская система основана на принципе, что человек — владелец данных, собранных о нём, таким образом, он имеет абсолютное право знать, какая информация собрана и кто имеет к ней доступ. Каждый раз, когда полицейский, доктор или любой госслужащий получает доступ к личной информации гражданина онлайн, они во-первых, получат информацию для дальнейшей работы только после авторизации. Во-вторых, все их запросы сохраняются в файле журнала. Этот подробный файл журнала является частью системы государственных услуг и обеспечивает реальную прозрачность, исключая нарушение конфиденциальности | , незамеченное гражданином. Конечно, это упрощённое изложение всех цифровых принципов проектирования, на которых построена е-Estonia. Теперь правительство готовится к использованию искусственного интеллекта и построения целого нового поколения государственных услуг — проактивных сервисов, которые активируются на основе различных жизненных ситуаций, которые могут быть у людей, такие как роды, безработица или открытие бизнеса. Конечно, управление цифровым обществом без бумажной резервной копии может стать проблемой, верно? Хотя мы верим, что наши системы надёжны, здесь лучше перестраховаться, как мы убедились в 2007 году, когда произошёл первый кибер-инцидент и буквально заблокировал часть наших сетей, часами не давая нам доступ к госуслугам. Мы справились. Но это событие поставило кибербезопасность на повестку дня как с точки зрения укрепления платформы, так и резервного копирования. Как создать копию системы, охватывающей всё в маленькой стране, где всё очень близко? Например, вы можете экспортировать копию данных за пределы страны в экстратерриториальное пространство посольства. Сегодня у нас есть посольства данных, которые хранят самые важные цифровые активы Эстонии, гарантирующие непрерывность операций, защиту наших данных и, самое главное, наш суверенитет. Даже в случае физической атаки на нашу территорию. Наверно, многие из вас сейчас думают: где же минусы? Всё цифровое — это административно, и, давайте быть честными, финансово эффективнее. Интерфейс с компьютерными системами может создать впечатление, что человеческий фактор в избрании политиков и участии в демократических процессах как-то менее важен. |
### Саммит GAMIFICATION SUMMIT RUSSIA / Санкт-Петербург / 13.12.2012
В карточке события видеозаписи и презентации выступлений:
Иван Ткаченко (Signus Labs) — «Игрофикация разработки игр»
Дмитрий Орлов (i-Free) — «Игровые механики в мобильных приложениях»
Андрей Куликовский (Триколор ТВ) — «Игровые механики в маркет | инге»
Дискуссионная панель — «Инвестиции в GAMIFICATION стартапы»
# IV. Маркетинговые
### Конференция Mobile Developer& | Business Days Russia 2012 / Москва / 14.12.2012
Круглый стол — «Gamedev»
Круглый стол — «Продуктовая разработка»
Круглый стол — «Разработка под клиента»
Дарья Трушкина (Game Insight) — «Тенденции мобильного рынка: взгляд игровой компании»
и другие видеозаписи выступлений. # Мы в социальных сетях:
Вконтакте / Twitter / Facebook / Linkedin |
Мы очень любим делиться новостями о появлении Яндекс.Панорам в новых городах: например, на прошлой неделе мы добавили панорамы улиц Брянска, Липецка, Орла и Саранска. Но сегодня мы хотим рассказать о не совсем обычном для нас релизе – на Яндекс.Картах впервые появились панорамы трассы между Москвой и Санкт-Петербургом! Если вы планируете поездку из одной столицы в другую на машине, с помощью Панорам вы сможете подготовиться к ней заранее: например, по | смотреть, с какой стороны дороги находится заправка или как выглядит кафе, в котором вы планируете перекусить. А еще вы можете просто поизуч | ать места, которые вам встретятся по пути. Кроме того, Панорамы можно взять с собой – для этого достаточно скачать бесплатное мобильное приложение Яндекс.Карты для Android или iPhone. Кстати, Панорамы – это еще и отличный способ путешествовать с ветерком. На поезде вы преодолеете расстояние от Москвы до Петербурга примерно за 8 часов, на самолете – за полтора, а за сколько домчится герой нашего видеоролика – смотрите сами:
Команда Яндекс.Панорам,
Хороших поездок на новогодних каникулах! |
В разработке банковского ПО данному аспекту системы уделяется наибольшее внимание. Часто, описывая отказоустойчивую систему, используют слова: Fault Tolerance, Resilience, Reliability, Stability, DR (disaster recovery). Данная характеристика — суть способность системы продолжать корректно работать при падении одной или нескольких подсистем, от которых она зависит. Я кратко опишу какие подходы могут применяться в данной области и приведу пару примеров. Сразу прошу меня просить, что некоторые вещи будут специфичны только для java, но все же, по большому счету все нижеописанное применимо к любой платформе, поэтому топик и помещен в эту тему. #### С чего начать? Прежде всего нужно хорошо знать архитектуру вашего приложения, охватывать взглядом весь стек вашей системы — от софта до железа. Так же можно посмотреть в сторону такой вещи как fault tree analysis. Это когда вы строите диаграмму ваших компонент в виде дерева зависимостей, и снизу вверх начинаете проставлять кумулятивную вероятность падения ваших компонентов. На этой диаграмме будет хорошо видны самые уязвимые места, которые потенциально могут принести самый большой ущерб. Самое сложный вариант, это когда ваша система зависит от подсистем, находящихся вне вашей компетенции, и не являющихся fault tolerat. В первую очередь, надо конечно попытаться убедить владельцев этих подсистем предоставить вам отказоустойчивое решение, таким образом, сделав это их проблемой, а не вашей. Но, к сожалению, это не всегда удается сделать, поэтому в этом случае вам прежде всего надо будет в деталях разобраться как работают эти подсистемы, и уже самим делать отказоустойчивое решения, например, подсоединяясь одновременно к двум одинаковым продублированным инстансам подсистем, но об этом ниже. #### Способы реализации
Есть два принципиально разных подхода, хотя они вполне | могут независимо или полузависимо сочетаться для вашей системы. Один подход — это DR (disaster recovery), когда полная копия всей вашей системы может быть поднята в другом датацентре. Данный метод выручает практически в любой ситуации, однако, он может имеет очень длительный промежуток простоя. Я знаю одну систему, в которой это занимает в районе часа. Но тут тоже надо быть очень аккуратным, не только конфигурация системы, но и железо в DR должны сов | падать с продакшеном. Например, когда мы тестировали DR, в одной из систем с которыми я работал, то у нас при сильной нагрузке оказалось, что один из компонентов заточен на работу в однопоточной среде и его пропускная способность пропорциональна частоте процессора, а на DR у нас была мега железка с огромным количеством ядер, но с небольшой тактовой частотой, так что этот компонент стал затыкаться. Вобщем, тест был весьма неудачен и «более клевое» железо на текущей конфигурации нашей системы нам явно не подходило. Второй способ — это программно реализовывать отказоустойчивость для каждого из компонент и их взаимодействия. Различных техник сделать вашу систему более устойчивой очень много. Давайте рассмотрим некоторые из них. ##### low level fault tolerant services
Принцип тут следующий — ваша система должна состоять из более менее независимых систем каждая из которых должна быть отказоустойчивой. В идеале не изобретать велосипед, а использовать уже готовые решения. Это на самом деле наилучший вариант, когда вся ваша система будет опираться на так называемые low level fault tolerant services. ##### Single point of failure
Избегайте архитектуры, в которой вся ваша система рушиться при падении одного из компонент. Достичь это можно либо используя принцип избыточности (см. ниже), либо делать компоненты по возможности независимыми, чтобы при падении одного из компонент, переставала работать только часть функциональности, а остальные части системы продолжали работать. Конечно последнее решение не подходит для основного функционала вашей системы, но если при проблемах в каких нибудь рюшечках вашей системы, дающих вспомогательные функция, случилась проблема, и это выключило всю вашу систему целиком, то, наверное, это не очень хорошо. |
Решение Cisco United Computing System (UCS) представляет собой платформу для современных ЦОД, которая объединяет вычислительные и сетевые ресурсы, доступ к системам хранения данных и средства виртуализации в единую систему и позволяет значительно снизить затраты на эксплуатацию дата-центров. В нем объединены высокоскоростная сетевая инфраструктура на базе 10GE и серверная архитектура x86 компании Intel. Cisco UCS позволяет с легкостью внедрять вычислительные ресурсы и гибко изменять рабочую нагрузку. Посмотрим на модели, с которыми мы уже успели познакомиться. К нам в ИТ-ГРАД как-то приезжала огромная куча коробок с надписями Cisco. В них находились шасси 5108 Blade Chassis, четыре лезвия UCS B200 M3 и два коммутатора UCS 6248UP Fabric Interconnect. Первыми были распакованы блейд-серверы – вот они:
Обитателем самой большой коробки оказалось шасси. Оно занимает место размером 6U и может вмещать в себя 8 лезвий половинчатой ширины или 4 полноразмерных лезвия. На задней панели расположились 8 вентиляторов и 2 сетевых модуля:
Последним был распакован центральный коммутатор UCS 6248UP Fabric Interconnect:
Подробную спецификацию и параметры компонентов системы UCS вы можете посмотреть по этой ссылке, а полную версию unboxing’а в нашем блоге на Хабре. Вот что интересно, в сентябре 2014 года компания Cisco анонсировала новую серию серверов UCS. Мы сейчас говорим о модульных серверах M-серии. Мы стараемся следить за состоянием инфраструктуры, и именно по этой причине к нам не так давно попал сервер Cisco UCS M4308. Предлагаем вашему вниманию распаковку этого замечательного устройства. Как водится, знакомство с оборудованием начинают с кор | обки – вот она:
Сам сервер дополнительно завернут в пакет, чтобы предотвратить попадание влаги и пыли. Добравшись до оборудования, помимо сервера мы обнаружили комплект монтажной фурнитуры, необходимые кабели, рельсы и руководство. Перед нами предстала модель Cisco UCS M4308. Буква M в названии обозначает «модульный». Вот анонс серии от компании Cisco (блог):
Особенность серии заключается в том, что блоки ЦП и оперативной памяти отделены от прочих подсистем. В этом случае, если возникнет необходимость увеличения числа ядер или объема памяти, не придется устанавливать новый полноценный сервер со своими блоками питания, кулерами, контроллерами, адаптерами и так дал | ее. Получается, что Cisco UCS M4308 идеально подходит для организации облачных вычислений. Более того, в этих серверах используется технология виртуальных интерфейсов VIC (Virtual Interface Card) и система управления UCS Manager. UCS Manager обеспечивает унифицированное управление всеми программными и аппаратными компонентами Cisco UCS «из коробки». Менеджер поддерживает функции автоматизации дата-центра, упрощая процесс масштабирования и снижая риски, при этом возникающие, а также обеспечивает управление на основе политик с использованием шаблонов и профилей обслуживания. С интерфейсом управления UCS Manager можно ознакомиться здесь. Первое, что привлекает внимание при взгляде на M4308 – это шасси, в котором 8 слотов для картриджей. На обратной стороне мы видим 4 отсека для SSD, которые подцепляются к RAID-контроллеру, позволяющему объединить твердотельные накопители общим объемом до 128 ТБ. Размер шасси – 2U.
Также шасси оснащено двумя блоками питания, выдающими по 1400 ватт каждый. Теперь давайте взглянем на сами картриджи. Извлекаются картриджи простым и элегантным движением – нужно отжать защелку и потянуть. Достав один из них, мы обнаружили внутри много интересного. Каждый картридж (в нашем случае – это UCS M142) представляет собой два серверных нода с процессорами Intel Xeon E3 1275L (8 МБ кэш-памяти и частотой 2,7 ГГц), поддерживающими до 32 ГБ оперативной памяти. Если говорить о плотности размещения вычислительных ресурсов, то она вызывает восхищение и достигает 8 процессоров на 1U.
Если говорить об архитектуре шасси, то здесь используются преимущества технологии Cisco System Link, которая обеспечивает доступ к разделяемым ресурсам, таким как питание, охлаждение, диски и прочее. |
В случае с сокетами необходимо создать воркер, дождаться, пока он достучится в систему, сделать PID handshake, и только после этого продолжать работу. ### Балансировщик задач
Третья часть сервера — самая важная для производительности. Для реализации используем стандартную функциональность Golang — буферизованный канал. В частности, создаем несколько воркеров и помещаем их в данный канал в виде LIFO-стека. При получении задач от пользователя посылаем запрос LIFO-стеку и просим выдать первый свободный воркер. Если воркер не удается аллоцировать за определенное количество времени, то пользователь получает ошибку типа «Timeout Error». Если же воркер аллоцирован — он достается из стека, блокируется, после чего принимает задачу от пользователя. После того, как задача обработана, ответ возвращается пользователю, а воркер встает в конец стека. Он снова готов выполнять следующую задачу. Если возникнет ошибка, то и пользователь получит ошибку, так как воркер будет уничтожен. Мы просим Worker Pool и Worker Factory создать идентичный процесс и заменить его в стеке. Это позволяет системе работать даже в случае фатальных ошибок просто пересоздавая воркеры по аналогии с PHP-FPM. В итоге получилось реализовать небольшую систему, которая работает очень быстро — 200 нс на аллокацию воркера. Она способна работать даже в случае фатальных ошибок. Каждый воркер в один момент времени обрабатывает только одну задачу, что позволяет нам использовать классический блокирующий подход. ### Проактивный мониторинг
Отдельная часть и менеджера процессов, и балансировщика задач — система проактивного мониторинга. Это система, которая раз в секунду опрашивает воркеры и следит за показателями: смотрит сколько памяти они потребляют, сколько в ней находятся, IDLE ли они. Кроме слежения, система контролирует утечки памяти. Если воркер превысит определенный лимит, мы это увидим и аккуратно уберем его из системы до | возникновения фатальной утечки. ### HTTP-стек
Последняя и простая часть. Как реализуется:
поднимает HTTP-точку на стороне Golang;
получаем запрос;
преобразуем в формат PSR-7;
передаем запрос первому свободному воркеру;
распаковываем запрос в PSR-7-объект;
обрабатываем;
генерируем ответ. Для реализации мы использовали стандартную библиотеку Golang NET/HTTP. Это известная библиотека, со множеством расширений. Умеет работать как по HTTPS, так по HTTP/2 протоколу. На стороне PHP мы использовали стандарт PSR-7. Это независимый фреймворк, со множеством расширений и Middlewares. По дизайну | PSR-7 иммутабелен, что хорошо вписывается в концепцию долгоживущих приложений и позволяет избежать ошибок глобального запроса. Обе структуры как в Golang, так и в PSR-7, похожи, что существенно сэкономило время на маппинг запроса из одного языка в другой. Для запуска сервера требуется минимальная обвязка:
[code]
http:
address: 0.0.0.0:8080
workers:
command: "php psr-worker.php"
pool:
numWorkers: 4
[/code]
Причем, с версии 1.3.0 последнюю часть конфига можно опустить. Скачиваем бинарный файл сервера, кладем его в Docker-контейнер или в папку с проектом. Как вариант — глобально пишем небольшой конфигурационный файл, который описывает, какой именно pod мы собираемся слушать, какой воркер — точка входа, и сколько их требуется. На стороне PHP мы пишем primary loop, который получает PSR-7-запрос, обрабатывает его и возвращает обратно серверу ответ либо ошибку. [code]
while ($req = $psr7->acceptRequest()) {
try {
$resp = new \Zend\Diactoros\Response();
$resp->getBody()->write("hello world");
$psr7->respond($resp);
} catch (\Throwable $e) {
$psr7->getWorker()->error((string)$e);
}
}
[/code]
Сборка. Для реализации сервера выбрали архитектуру с компонентным подходом. Это дает возможность собирать сервер под нужды проекта, добавляя или убирая отдельные куски в зависимости от требований приложения. [code]
func main() {
rr.Container.Register(env.ID, &env.Service{})
rr.Container.Register(rpc.ID, &rpc.Service{})
rr.Container.Register(http.ID, &http.Service{})
rr.Container.Register(static.ID, &static.Service{})
rr.Container.Register(limit.ID, &limit.Service{}
// you can register additional commands using cmd.CLI
rr.Execute()
}
[/code]
## Варианты использования
Рассмотрим варианты использования сервера и модифицикации структуры. |
Counter-Strike не теряет популярности. Эта игра, в которой сошлись силы зла и добра, или террористов и их противников из силовых структур, востребована до сих пор. Меняются версии, добавляются новые функции, игра становится более красивой и динамичной от версии к версии. Но вот, что интересно — если среди прочих игрушек внимание игроков получают только новинки, то в случае Counter-Strike остаются «на плаву» и прежние релизы. Например, Counter-Strike 1.6. Геймеры, от мала до велика, не прекращают вести сражения как друг против друга, так и против ботов. Но для того, чтобы достичь определенного результата (и уважения сотоварищей) нужно всегда быть в форме. В Counter-Strike огромную роль играют реф | лексы и координация движений игрока (не говоря уже о командной игре). Для того, чтобы не терять форму, теперь можно использовать даже планшет на Android. Относительно недавно появилась неофициальная версия под эту ОС. Создателем ее является программист Алибек Омаров. Для запуска игрушки нужна копия оригинальной версии Counter-Strike | 1.6 плюс несколько дополнительных файлов и софт. Скачать APK можно здесь. Проработано все довольно тщательно. Играть можно без дополнительных аксессуаров, используя специальные точки-контроллеры на экране. Но это, конечно, совсем не то, чего ожидает любитель «контры». Для того, чтобы сделать игру удобной и комфортной, желательно подключить Bluetooth клавиатуру и мышь. Для того, чтобы нормально стрелять и попадать, хэдшотить, нужны мышь и клавиатура, без этого не обойтись. Что касается виртуальных кнопок управления — все они настраиваются, о чем рассказывает создатель на Reddit. Установить игрушку на Android не так уж и просто, поэтому автор предлагает дополнительную инструкцию, чтобы не было сложностей. |
### Новости
«Яндекс» обновил логотип и сменил домен новой версии «Кинопоиска»
В 2015 году мировой рынок смартфонов составил 1,4 млрд устройств
Создатель системы управления версиями Mercurial передаёт проект в руки сообщества
Аналитики предсказывают бум смартфонов с датчиками силы прикосновения во втором квартале 2016 года
Прибыль Microsoft упала на 15 %, продажи телефонов — на 50 %
Google обновил Руководство для вебмастеров
Facebook удвоил чистую прибыль в 2015 году
VMware увольняет американские команды разработчиков Workstation и Fusion
### Занимательное
26 сайтов с головоломками и обучающими задачами для разработчиков
Мытари Ее Величества vs Google
7 качеств хорошего менеджера по версии главного рекрутера Facebook
| Спорт будущего: Drone Racing League устраивает зрелищные гонки дронов
Главный инноватор: Чем сооснователь Google Ларри Пейдж занимается в холдинге Alphabet
Twitter – всё? Информационная | безопасность — Итоги 2015
Мировой рынок e-commerce в огне: бывшие «единороги» умирают один за другим
Молодые таланты больше не хотят работать в Apple — обзор The Guardian
Разработки Microsoft опередившие своё время
Как включить быстрый запуск системы на Windows 10
Сколько Google заплатила за потерявшийся домен google.com
Гаджеты: Топ-5 актуальных подарков на День святого Валентина
Надежды на Bitcoin не сбылись? Форматы видео, поддерживаемые HTML5, доминируют в вебе (HTML5 Supported Formats Now Dominate Video Delivery On The Web)
Просим прощения за возможные опечатки или неработающие/дублирующиеся ссылки. Если вы заметили проблему — напишите пожалуйста в личку, мы стараемся оперативно их исправлять. Дайджест за прошлую неделю. Материал подготовили dersmoll и alekskorovin. |
О том, что было | после запуска и каких удалось добиться результатов, я расскажу в своей след | ующей статье. |
0x000000 : 0xffffff;
g_textEdit.m_isEnabled = g_enablePrintCheckBox.m_isChecked;
g_printButton.m_isEnabled = g_enablePrintCheckBox.m_isChecked;
onevent g_printButton.m_onClicked ()
{
printf ($"> $(g_textEdit.m_text)\n");
}
}
[/code]
Уважаемые хабровчане приглашаются на живую страничку нашего компи | лятора, чтобы опробовать реактивные возможности Jancy без необходимости что-либо скачивать, устанавливать или собирать. Желающие таки скачать и cобр | ать/просто покопаться в исходниках Jancy, могут сделать это со странички скачивания. Кстати, в папке samples/02_dialog лежит приведённый чуть выше пример навешивания реактивности на QT-виджеты. А на реальное применение Jancy и его реактивных возможностей можно посмотреть в нашем программируемом терминале/сниффере IO Ninja. |
000000013F07102D xor r9d,r9d
for (size_t i = 0; i != Count; i++)
000000013F071030 mov ecx,r9d
000000013F071033 nop dword ptr [rax]
000000013F071037 nop word ptr [rax+rax]
array[index++] = char(i) | 1; 000000013F071040 movzx r8d,cl
000000013F071044 mov edx,r9d
000000013F071047 or r8b,1
000000013F07104B inc r9d
000000013F07104E inc rcx
000000013F071051 mov byte ptr [rdx+rbx],r8b
000000013F071055 cmp rcx,rdi
000000013F071058 jne main+40h (013F071040h)
[/code]
## Примечание про PVS-Studio
Анализатор PVS-Studio напрямую не диагностирует переполнение знаковых переменных. Это неблагодарное занятие. Почти невозможно предсказать, какие значения будут иметь те или иные переменные и произойдет переполнение или нет. Однако, он может заметить в этом коде ошибочные паттерны, которые он связывает с «64-битными ошибками». На самом деле никаких 64-битных ошибок нет. Есть просто ошибки, например, неопределённое поведение. Просто эти ошиб | ки спят в 32-битном коде и проявляют себя в 64-битном. Но если говорить про неопределённое поведение, то это не интересно, и никто покупать анализатор не будет. Да ещё и не поверят, что могут быть какие-то проблемы. А вот если анализатор говорит, что переменная может переполниться в цикле, и что это ошибка «64-битная», то совсем другое дело. Profit. Приведенный выше код PVS-Studio считает ошибочным и выдаёт предупреждения, относящиеся к группе 64-битных диагностик. Логика следующая: в Win32 переменные типа size_t являются 32-битными, массив на 5 гигабайт выделить нельзя и всё корректно работает. В Win64 стало много памяти, и мы захотели работать с большим массивом. Но код отказал и даёт сбой. Т.е. 32-битный код работает, а 6 | 4-битный нет. В рамках PVS-Studio это называется 64-битной ошибкой. Вот диагностические сообщения, которые выдаст PVS-Studio на код приведённый в начале:
V127 An overflow of the 32-bit 'index' variable is possible inside a long cycle which utilizes a memsize-type loop counter. consoleapplication1.cpp 16
V108 Incorrect index type: array[not a memsize-type]. Use memsize type instead. consoleapplication1.cpp 16
Подробнее на тему 64-битных ловушек предлагаю познакомиться со следующими статьями:
Разработка 64-битных приложений на языке Си/Си++
64-битный конь, который умеет считать
Коллекция примеров 64-битных ошибок в реальных программах
C++11 и 64-битные ошибки
## Корректный код
Чтобы всё работало хорошо, надо использовать подходящие типы данных. Если вы собираетесь обрабатывать большие массивы, то забудьте про int и unsigned. Для этого есть типы ptrdiff_t, intptr_t, size_t, DWORD_PTR, std::vector::size_type и так далее. В данном случае пусть будет size_t:
[code]
size_t index = 0;
for (size_t i = 0; i != Count; i++)
array[index++] = char(i) | 1; [/code]
## Вывод
Если конструкция языка С++ вызывает неопределённое поведение, то она его вызывает и не надо с этим спорить или предсказывать как оно проявит себя. Просто не пишите опасный код. Есть масса упрямых программистов, которая не хочет видеть ничего опасного в сдвигах отрицательных чисел, переполнении знаковых чисел, сравнивании this c нулём и так далее. Не будьте в их числе. То, что программа сейчас работает, ещё ничего не значит. Как проявит UB предсказать невозможно. Ожидаемое поведение программы — это всего лишь один из вариантов UB. |
### Небольшое вступление
Однажды, заехав в очередную съемную квартиру, я столкнулся с определенным неудобством, которое достаточно сильно напрягало: выключатель света в основной комнате оказался за шкафом-стенкой, который был прикручен к стене, и его перестановка была невозможна т.к. на это требовалось значительно много времени и сил. Решить данную проблему хотелось очень сильно и в голову пришла одна мысль: сделать дистанционный пульт для управления освещением! Именно с идеи создания собственного пультика для управления светом в комнате и началось моё увлечение электроникой, микроконтроллерами и различными радиоустройствами. Список статей:
1. Начинаем изучать STM32 или Управляем светом по-умному
2. Начинаем изучать STM32: битовые операции
3. Начинаем изучать STM32: Что такое регистры? Как с ними работать? После этого я начал изучать данную тему, знакомиться с основами электроники, примерами устройств, узнавать, как люди реализуют подобного рода устройства. Поискав информацию на тему того, с чего можно было бы начать изучение микроконтроллеров я узнал о том, что такое Arduino, с чем их едят, о том, как с ними работать. Легкое решение выглядело весьма привлекательно, ведь насколько я понял на тот момент, код собирается на раз-два. Но сделав вывод, что я не узнаю, что творится внутри микроконтроллера за рамками Arduino-скетчей я решил поискать более интересный вариант, который подразумевал глубокое изучение и погружение в дебри микроконтроллерной техники. В компании, в которой я работаю, имеется отдел разработки, и я решил обратиться к инженерам чтобы они направили меня на путь истинный и показали с чего можно было бы начать решение своей | задачи. Меня решительно отговорили от изучения Arduino и у меня в руках оказалась неведомая и непонятная зеленая платка на которой виднелись надписи, буковки, разные электронные компоненты. Всё это для меня на тот момент показалось непостижимо сложным, и я даже пришел в некоторое смятение, но от реализации поставленной задачи отказываться не собирался. Так я познакомился с семейством микроконтроллеров STM32 и платой STM32F0-Discovery, после изучения которых мне хотелось бы сваять свой девайс под нужные мне цели. К моему большому удивлению, такого большого комьюнити, статей, примеров, различных материалов по STM не было в таком же изобилии как для Arduino. Конечно, если поискать найдется множество статей «для начинающих | » где описано, как и с чего начать. Но на тот момент мне показалось, что все это очень сложно, не рассказывались многие детали, интересные для пытливого ума новичка, вещи. Многие статьи хоть и характеризовались как «обучение для самых маленьких», но не всегда с их помощью получалось достичь требуемого результата, даже с готовыми примерами кода. Именно поэтому я решил написать небольшой цикл статей по программированию на STM32 в свете реализации конкретной задумки: пульт управления освещением в комнате. ### Почему не AVR/Arduino? Предвосхищая высказывания о том, что неопытному новичку бросаться сразу же в изучение такого сложного МК как STM32 было бы рановато — я расскажу, почему я решил пойти именно этим путём, не вникая и не знакомясь с семейством процессоров от Atmel и даже не рассматривая Arduino как вариант. Во-первых, решающую роль сыграло отношение цена-функционал, разницу видно даже между одним из самых дешевых и простых МК от ST и достаточно «жирной» ATMega:
После того, что я увидел значительные различия между ценой и возможностями AVR и STM32 – мною было принято решение, что AVR использовать в своей разработке я не буду =) Во-вторых, я предварительно для себя старался определить набор умений и навыков, которые бы я получил к моменту, когда я достигну требуемого результата. В случае если бы я решил использовать Arduino – мне было бы достаточно скопировать готовые библиотеки, накидать скетч и вуаля. Но понимание того, как работают цифровые шины, как работает радиопередатчик, как это всё конфигурируется и используется – при таком раскладе мне бы не пришло бы никогда. Для себя я выбрал самый сложный и тернистый путь, чтобы на пути достижения результата – я бы получил максимум опыта и знаний. |
В процессе создания очередного статического сайта-заглушки появилась потребность оптимизировать процесс. Что из этого получилось? Итак цель — создание удобного редактора статических HTML страниц в браузере. Редактор имеет два режима. Редактирование текста и редактирование HTML. Редактирование текста активируется кликом на нужном элементе. Для редактирования HTML делаем двойным клик. В режиме редактирования HTML подсветка кода на основе google-code-prettify (известный по использованию в документации twitter bootstrap) и jsbeautifier для форматирования кода. Для сохранения изменений используется простой node.js сервер позволяющий сохранять изменения и создавать копию текущей страницы. ##### Как это работает:
Активация WYSIWYG режим редактирования
[code]
$(document).click(function (event) {
$(event.target).attr('contentEditable', 'true’');
}
[/code]
Активация HTML редактора
[code]
$(document).dblclick(function (event) {
//форматируем код библиотекой jsbeautifier
var str = style_html( $(current).html() );
//html - text
str = str.replace(/\&(?!(\w+;))/g, '&').replace(/</g, '<');
//заменяем html контент элемента на текст контент
$(current).html('<pre class="prettyprint">' + str + '</pre>');
//запускаем prettify парсер
prettyPrint();
}); [/code]
###### После окончания редактирования элемента
В случае если редактировался текст
[code]
$(current).html( $( current ).text() ); [/code]
В случае HTML редактора необходимо очистить HTML от элементов добавленных prettify парсером
[code]
var content = “”; $('.prettyprint').children().each(function(i) {
var nodeHtml = $(this).html();
content += nodeHtml;
}); //возвращаем текс в хтмл
content = content.split('<').join('<');
| content = content.split('>').join('>'); $(current).html( content ); [/code]
#### Установка и пример использования:
Для тестирования ~~необходим~~ установленный node.js (если его нет начать можно здесь habrahabr.ru/post/95960 или здесь nodejs.org/download)
Update: добавлена поддержка PHP
Воспользуемся bootstrap шаблоном от initializr
[code]
git clone https://github.com/verekia/initializr-bootstrap.git
cd initializr-bootstrap
[/code]
Заг | ружаем редактор
[code]
git clone https://github.com/xreader/inplaceeditor.git
cp -r inplaceeditor/* . [/code]
Для вызова редактора добавляем в index.html перед строку:
[code]
<script src="js/inplaceeditor.js"></script>
[/code]
##### PHP
В ксрипте inplaceeditor.js нужно поменять
[code]
const SEVER = 'NODE'; [/code]
на
[code]
const SEVER = 'PHP'; [/code]
##### Node.js
Устанавливаем зависимости для node.js
[code]
npm i
[/code]
Запускаем сервер
[code]
node server.js
[/code]
Открываем http://localhost:3000 и начинаем редактировать. Легенда:
1. Клик на элементе для редактирования текста страницы
2. Двойной клик для активации режима редактирования HTML
3. Справа вверху кнопка Save сохраняет изменения. Кнопка Copy рядом делает копию текущей страницы и делает переход на неё
4. Для завершения редактирования можно использовать клик на не редактируемом элементе или ESC
Перед загрузкой на сервер не забываем удалять вызов редактора! Код на GitHub
##### Чего не хватает? ~~Портировать node.js на php~~
~~Добавить возможность аутентификации для редактирования непосредственно на сервере~~
Update: попробовать можно здесь: xreader.github.com/inplaceeditor/demo.html
Без возможности сохранения и копирования
Update 2: Добавлена возможность аутентификации пользователя для защиты от редактирования
Имя/пароль прописаны в server.js admin:secret
Update 3: Добавленa поддержка PHP
В inplaceeditor.js нужно поменять
[code]
const SEVER = 'NODE'; [/code]
на
[code]
const SEVER = 'PHP'; [/code]
P.S. Хотелось бы услышать отзывы от тех кто пользуеться редактором |
После новостей о добавлении в дистрибутив Ubuntu Touch приложений и Qt 5 для Android решил посмотреть что представляет собой Ubuntu SDK и написать простое приложение. Выбор пал на google tasks, сейчас приложение проходит авторизацию oauth и получает задачи из выбранного списка. Код приложения доступен на github. Знакомство с QML значительно упростит понимание приведенного кода, некоторые ссылки собраны на этой странице. #### Установка
На текущий момент официально доступны пакеты для Ubuntu начиная от 12.04. После установки будет доступен Qt Creator с дополнительными инструментами разработки от Ubuntu и набор компонентов для интерфейса. Первоначальное ознакомление рекомендую начать с примера на сайте. Я создал новый проект Qt Quick 2 Application, для большей гибкости. Можно скопировать код из примера в main.qml и запустить приложение. Вывод в консоли QQmlComponent: Component is not ready — это небольшой баг, но и SDK пока в статусе preview. #### Авторизация
Для работы с API необходимо зарегистрировать приложение в консоли. Подробное описание в Step 2: Register Your Application
Нам потребуется показать пользователю страницу авторизации приложения и получить токен. QML существует уже длительное время и за основу я взял код из проекта qml-google-tasks. Авторизацию реализуют два файла GoogleOAuth.qml — GUI и google_oauth.js — логика. Изменяем GoogleOAuth.qml для работы с QtQuick 2 и интеграции с компонентами Ubuntu. Код
[code]
import QtQuick 2.0
import QtWebKit 3.0
import Ubuntu.Components 0.1
import "google_oauth.js" as OAuth
Page {
id: google_oauth
title: i18n.tr("Login")
anchors.fill: parent
property string oauth_link: "https://accounts.google.com/o/oauth2/auth?" +
"client_id=" | + OAuth.client_id +
"&redirect_uri=" + OAuth.redirect_uri +
"&response_type=code" +
"&scope=https://www.googleapis.com/auth/tasks" +
"&access_type=offline" +
"&approval_prompt=force"
property bool authorized: accessToken != ""
property string accessToken: ""
property string refreshToken: ""
signal loginDone();
onAccessTokenChanged: {
console.log('onAccessTokenChanged');
if(accessToken != ''){
console.log("accessToken = ", accessToken)
loginDone();
}
}
function login(){
loginView.url = oauth_link
}
function refreshAccessToken(refresh_token){
OAuth.refreshAccessToken(refresh_token)
}
Flickable {
id: web_view_window
property bool loading: false
anchors.fill: parent
WebView {
id: loginView
anchors.fill: parent
onUrlChanged: OAuth.urlChanged(url)
}
}
}
[/code]
В google_oauth.js | меняем client_id client_secret и redirect_uri на полученные в консоле. Проверить работу мы можем немного изменив код GoogleOAuth.qml:
Код
[code]
import QtQuick 2.0
import QtWebKit 3.0
import Ubuntu.Components 0.1
import "google_oauth.js" as OAuth
Page {
id: google_oauth
title: i18n.tr("Login")
anchors.fill: parent
property string oauth_link: "https://accounts.google.com/o/oauth2/auth?" +
"client_id=" + OAuth.client_id +
"&redirect_uri=" + OAuth.redirect_uri +
"&response_type=code" +
"&scope=https://www.googleapis.com/auth/tasks" +
"&access_type=offline" +
"&approval_prompt=force"
property bool authorized: accessToken != ""
property string accessToken: ""
property string refreshToken: ""
signal loginDone();
onAccessTokenChanged: {
console.log('onAccessTokenChanged');
if(accessToken != ''){
console.log("accessToken = ", accessToken)
loginDone();
}
}
function login(){
loginView.url = oauth_link
}
function refreshAccessToken(refresh_token){
OAuth.refreshAccessToken(refresh_token)
}
Flickable {
id: web_view_window
property bool loading: false
//anchors.fill: parent
//Для тестирования
width: 800
height: 800
WebView {
id: loginView
anchors.fill: parent
onUrlChanged: OAuth.urlChanged(url)
}
}
//Для тестирования
Component.onCompleted: {
console.log("onCompleted")
login()
}
}
[/code]
и запустив утилитой qmlscene файл GoogleOAuth.qml (В Qt Creator доступна в меню: Tools > External > Qt Quick > Qt Quick 2 Preview, запускает открытый в текущий момент файл)
После авторизации в логе должны появиться строки:
onAccessTokenChanged
accessToken = xxxx.xxxxxxxxxxxxxxxxxxxxxxxx
###### Навигация
Структурно интерфейс представляет собой MainView с набором Page, аналогично fragments в android. |
2017 год уже совсем близко, и по этому поводу под наплывом позитивных чувств хочу поделиться от имени Veeam двумя вещами:
1. Самое важное – СПАСИБО вам за то, что были с нами в течение полного разными событиями 2016 года. Мы желаем всем крепкого здоровья, успехов и мира в новом году. 2. В эту честь Veeam запустил уже ставший традиционным праздничный розыгрыш, когда можно выиграть одну из десяти полностью оплаченных поездок в Новый Орлеан, США на VeeamON 2017, международную конференцию администраторов виртуальных инфраструктур, на неделе 15 мая. ## Какие призы и как поучаствовать? Всего до конца года Veeam раздаст 10 оплаченных поездок на VeeamON 2017. Каждая поездка включает в себя:
Полный входной билет на конференцию, включая питание
Перелет туда и обратно до Нового Орлеана от места проживания победителя
Аренду номера в хорошем отеле недалеко от места проведения конференции
Чтобы поучаствовать, заполните короткую заявку | на странице розыгрыша. Крайний срок – 31 декабря включительно. Победителей будут выбирать произвольно. ## Что такое VeeamON? Мы подробно писали об этом здесь. Если коротко, VeeamON – это международная конференция для администраторов виртуальных инфраструктур и не только. В 2014 и 2 | 015 годах конференция проходила в Лас Вегасе. Ниже добавила обзорное видео, как это было в прошлый раз. В 2017 году мы планируем принять в 2 раза больше участников (около 3,500 человек) в Новом Орлеане. В первый день будут выступать такие видные докладчики, как Марк Руссинович, CTO, Microsoft Azure и Sanjay Poonen, Customer Operations, VMware. Всего в течение трех дней конференции будет больше 85 сессий на технические и бизнес темы. Также во время конференции мы традиционно отдадим чек на $10,000 USD человеку, который покажет лучшее знание продуктов Veeam. Если будут вопросы – спрашивайте ниже в комментариях. Очень хочется, чтобы в 2017 году русскоговорящих специалистов на VeeamON было больше :) На всякий случай ссылки, которые могут быть интересны:
Страница розыгрыша
Конференция VeeamON 2017 в Новом Орлеане, 16-18 мая, 2017 (на английском)
Обзор конференций в 2015 году на vmgu.ru (день 1, день 2, день 3) |
Уважаемые хабравчане! 29 июня в 17:00 приглашаем вас принять участие в командной виртуальной игре — квесте на русском языке, и вместе с экспертами IBM погрузиться в невероятный мир приключений с множеством секретных миссий и поисками киберпреступника. Вам будет необходимо остановить хакерскую атаку на сервер секретного агентства UNDERCOVER менее, чем за 90 минут. Для успешного выполн | ения этого задания вы должны будете выполнить три миссии, каждая из которых состоит из нескольких последовательных головоломок и развлекатель | ных заданий на внимательность. Если вы заинтересовались — милости просим под кат.
Для участия в игре необходимо зарегистрироваться по ссылке. Для выполнения некоторых заданий вам потребуется IBM Cloud — зарегистрируйтесь там заранее (это бесплатно), а как получить ценный приз — спросите у нашего виртуального ассистента: https://ibm.biz/workshops (но для этого потребуется решить несложную задачку). Ждем вас на онлайн-игре! Не откладывайте регистрацию — количество мест ограничено. |
И стало понятно, что у него лишним является сигнал z1_1 при состоянии «1»(у автомата на рис. 12 это сигнал y2). Проблема в том, что он, обнаружив «левую скобку», наращивает счетчик на две единица, а при обнаружении «левой скобки» не изменяет его совсем. Так, при обнаружении «левой скобки» он вызывается дважды – один раз на петле,, помеченной x2/y2, а второй раз при входе в состояние. А при обнаружении «правой скобки» счетчик сначала на петле уменьшается, а затем при входе в состояние увеличивается. Причина такой работы управления МТ, в неверной трактовке авторами функционирования автомата типа Мура. Видимо, они полагают, что сигнал при состоянии у автомата Мура исполняется только при входе в это состояние (см. переход из состояния «0» в «1»), а на самом деле он выдается всякий раз при входе в это состояние. В том числе и при переходе по петле. Таким образом, мы имеет дело не с ошибкой (кто не ошибался?), а с более серьезной проблемой — неверной трактовкой в рамках SWITH-технологии функционирования автоматов типа Мура. Тестирование эквивалентной модели это и показало. 3\. Заключение
Подводя итог, можно сказать, что нет формальных отличий тьюрингового программирования от автоматного, т.к. машина Тьюринга – это абстрактная модель автоматных программ. Просто в последнем случае используется более широкий набор операторов и структур данных (памяти). Теперь можно уверенно ответить и на вопрос, чем отличается машина Поста, как модель обычных программ, от машины Тьюринга — модели автоматных программ. Моделью управления и лишь только ею, т.к. остальное – память и операторы могут быть одними и теми же. Следовательно, обычное программирование отличается от программирования автоматного только одним – моделью управления. Таким образом, пока для реализации автоматов используются обычные операторы управления типа switch | и им подобные нельзя, строго говоря, такое программирование считать автоматным. Это может быть имитация автоматов с утратой их определенных свойств и не более того. Итак, давая определение понятий автоматной программы и автоматного программирования, говорить надо не об «автоматизированных объектах управления», а о программах и только программах, имеющих управление в форме классического конечного автомата. И еще интересный факт, на который хотелось бы обратить внимание. В начале 2000- | х годов, авторы озвучили свое понимание автоматного программирования на широкую аудиторию. Их статьи по поводу абстрактных машин были напечатаны в журнале «Мир ПК» No2 за 2002 г. [11, 12, 13]. Можно утверждать, что годы на убеждения сторон не повлияли. Хотя, возможно, это отражает только степень их уверенности в выбранных решениях. Например, в «новую лекцию по автоматному программированию» Шалыто А.А. по сравнению с предыдущей «лекцией со слайдами» (десятилетней давности) добавлено лишь видео примера на базе «автоматного пакета» Stateflow. Казалось бы, это подтверждает правоту идей Шалыто А.А., т.к. то, что не удалось реализовать в рамках UniMod (проект, похоже, «заморожен»), воплотили разработчики Stateflow. И, наверное, не так уж важно кто это сделал... Однако, на момент публикации упомянутых статей авторам SWITCH-технологии уже была известна критика в ее адрес. Это не было тайной, т.к. с ней можно было ознакомиться на сайте SoftCraft [14]. На нем же были созданы разделы, посвященные автоматному программированию вообще и SWITH-технологии и КА-технологии в частности. Позиции авторов обсуждались на форуме сайта (он был на тот момент открыт). Но все так и остались при своем мнении. Итоги на текущий момент таковы. Критика, высказанная в отношении SWITH-технологии когда-то давно, актуальна и на текущий момент. Она же относится и к пакету Stateflow. В SWITH-технологии как не было, так и нет четкого определения автоматного программирования, не изменился подход к реализации автоматов, сама модель не является классической, нет модели параллельных вычислений и т.д. и т.п. Без устранения этих проблем подобное автоматное программирование в лучшем случае претендует на достаточно ограниченную роль. |
В предыдущей статье мы с вами рассмотрели несколько несложных способов ускорить Pandas через jit-компиляцию и использование нескольких ядер с помощью таких инструментов как Numba и Pandarallel. В этот раз мы поговорим о более мощных инструментах, с помощью которых можно не только ускорить pandas, но и кластеризовать его, таким образом позволив обрабатывать большие данные. ##### Часть 1
Numba
Multiprocessing
Pandarallel
##### Часть 2
Swifter
Modin
Dask
## Swifter
Swifter — еще одна небольшая, но довольно умная обертка над pandas. В зависимости от ситуации она выбирает наиболее эффективный способ оптимизации из возможных — векторизацию, распараллеливание или средства самого pandas. В отличие от pandarallel для организации параллельных вычислений она использует не голый мультипроцессинг, а Dask, но о нем чуть позже. Мы проведем два теста все на тех же новостных данных из прошлой части:
1. Возьмем векторизуемую функцию (они сами по себе достаточно оптимальны по производительности)
2. Наоборот, что-то сложное, и посмотрим, как swifter будет адаптироваться. Для первого теста я использую простую математическую операцию:
[code]
def multiply(x):
return x * 5
# df['publish_date'].apply(multiply)
# df['publish_date'].swifter.apply(multiply)
# df['publish_date'].parallel_apply(multiply)
# multiply(df['publish_date'])
[/code]
Чтобы было видно, какой именно подход выбрал swifter, я включил в тест обработку самим pandas, векторизованный подход, а также pandarallel:
На графике отлично видно, что за исключением небольшого оверхеда, который swifter тратит на вычисление наилучшего метода, он идет вровень с векторизованной версией, являющийся наиболее эффективной. Это означает, что оптимизация проведена верно. Теперь посмотрим как он справится с более сложным, невекторизуемым кейсом. Возьмем наш | у функцию обработки текста из прошлой части, добавив туда работу с swifter:
[code]
# calculate the average word length in the title
def mean_word_len(line):
# this cycle just complicates the task
for i in range(6):
words = [len(i) for i in line.split()]
res = sum(words) / len(words)
return res
# для работы со строками иницируем специальную функцию allow_dask_on_strings()
df['headline_text'].swifter.allow_dask_on_strings().apply(mean_word_len)
[/code]
Сравним скорость работы:
А тут картина даже более интересная. Пока объем данных небольшой (до 100 000 строк), swifter использует методы самого pandas, что отчетливо видно. Далее, когда pandas уже не так эффективен, включается параллельная обработка, и swifter начинает работать на нескольких ядрах, выравниваясь по скорости с pandarallel. #### И | тоги
Функционал позволяет не только распараллеливать, но и векторизовать функции
Автоматически определяет наилучшую стратегию для оптимизации вычислений, позволяя не задумываться, где стоит его применять, а где нет
К сожалению пока не умеет применять `apply` на группированные данные (`groupby`)
## Modin
Modin занимается распараллеливанием вычислений, в качестве движка используя Dask или же Ray, и по своей сути мало чем отличается от предыдущих проектов. Тем не менее, это довольно мощный инструмент, и я не могу назвать его просто оберткой. В modin реализован свой собственный `dataframe` класс (хотя под капотом все же используется pandas), в котором на данный момент есть уже ~80% функционала оригинала, а оставшиеся 20% ссылаются на реализации pandas, таким образом полностью повторяя его API. Итак, приступим к настройке, для которой нужно только установить `env` переменную на нужный движок и импортировать класс датафрейма:
[code]
# движок Dask на данный момент считается экспериментальным, поэтому я взял ray
%env MODIN_ENGINE=ray
import modin.pandas as mpd
[/code]
Интересной возможностью modin является оптимизированное чтение файла. Для теста создадим csv файл размером в 1.2 GB:
[code]
df = mpd.read_csv('abcnews-date-text.csv', header=0)
df = mpd.concat([df] * 15)
df.to_csv('big_csv.csv')
[/code]
А теперь прочитаем его с помощью modin и pandas:
[code]
In [1]: %timeit mpd.read_csv('big_csv.csv', header=0)
8.61 s ± 176 ms per loop (mean ± std. dev. of 5 runs, 1 loop each)
In [2]: %timeit pd.read_csv('big_csv.csv', header=0)
22.9 s ± 1.95 s per loop (mean ± std. dev. of 5 runs, 1 loop each)
[/code]
Получили ускорение примерно в 3 раза. |
13 Выпуск токенов ICO Позволяет вкладывать деньги в компании, и получать прибыль (Заменяет собой работу на фондовом рынке акций, выход компаний на биржу, продажу и перепродажу акций). Таким образом, внедрение ДЭВ производит революцию в банковской, юридической сфере, и сфере трудовых отношений:
1. Банки будут не нужны, или их роль сведётся к операционным кассам по выдаче наличных, и удостоверению личности клиента. 2. Юридическое сопровождение части сделок больше не будет требоваться. 3. Отношения между работником, начальником и работодателем могут регулироваться электронным образом. Конечно, традиционные юристы останутся, но часть рынка их услуг уйдёт в
сектор ДЭВ. Также не все отношения в трудовой сфере будут
регулироваться электронно, но у работника и работодателя будет выбор — работать традиционно, или в новом формате трудовых отношений. Прежде чем начать рассматривать основные ДЭВ, могу отметить, что до до сих пор не существует ДЭВ, решающей основные задачи собственно денег:
1. Оплата в реальном времени покупки между контрагентами (ситуация — оплатить товар в магазине или на улице). Проблемы — нет широко распространённой ДЭВ, нет отлаженных механизмов обменов на фиатные деньги, средства платежа (электронные кошельки) неудобны. 2. Не существует надёжной, быстрой и отлаженной системы обмена ДЭВ. Все нижерассматриваемые ДЭВ — очень хорошие, с максимумом возможностей, но они в основном решают другие задачи. Основную задачу денег как средства быстрого, ликвидного и надёжного средства платежа, по сути пока решает только биткоин. Пока не появится ДЭВ, которая обладает следующими характеристиками:
1. Быстрые (меньше секунды) платежи. 2. Бескон | ечная масштабируемость. 3. Беспроблемная и быстрая конвертация. 4. Исключительная надёжность к атакам. 5. Минимальные издержки на работу системы, дешевая стоимость обслуживания транзакции и сохранения накоплений. 6. Контролируемая эмиссия и распределение денег. Ни у одной ДЭВ не будет шанса совершить настоящую революцию. Это так и будут игрушки с массой интересных узкому кругу вещей. Ниже вкратце рассмотрим основные ДЭВ. (Если кто со мной не согласен, что-то я пропустил, прошу в комментарии, дискуссию, сделаем вместе хороший справочник). Для обзора отобрал ДЭВ, которые наиболее интересны с точки зрения решения вышеперечисленных проблем. 1\. Конечно же, первый будет Биткоин. Это первая успешная ДЭВ. В чём её плюсы:
Децент | рализация. Широкое распространение. Высокая капитализация. Минусы:
Медленная скорость транзакций (очень медленная – до суток и более!). Нереально использовать эту валюту в реальных расчётах без спец. сервисов. (Некоторые сервисы позволяют проводить расчёты быстро – но они берут на себя некоторые риски, и соответственно комиссию.) Высокая волатильность курса. (Не позволяет использовать валюту в повседневных расчётах – риск потерять, а не приобрести). Медленное развитие, отставание от множества ДЭВ следующего поколения (контракты и пр). Проблемы с обменом (по идее, в валюту должны быть встроены интерфейсы, позволяющие безопасно производить обмен, без каких-то сторонних сервисов). Нестойкость к атакам (утверждение спорное, но думаю, мы скоро увидим атаки на эту валюту, которые её похоронят. Одна только атака мощностью более 50% от мощности всех нод – вполне реальна). Неудобство хранения реестра блокчейн — который занимает всё больше места, и продолжает расти пугающими темпами. И одна из ключевых проблем – необходимость в высокой вычислительной мощности нод, что вызывает неоправданные издержки на покупку нового аппаратного обеспечения, энергии. Рано или поздно, валюта с такими издержками проиграет более экономным ДЭВ. С ростом количества транзакций и пользователей, проблемы с скоростью, размером реестра блокчейн, издержками, увеличиваются кратно. Валюта обеспечивает следующие технологические возможности:
No Технологические возможности ДЭВ Реализация в Биткоин
1 Возможность иметь деньги ДЭВ, которые признаются и принимаются в любом уголке мира как минимум как средство платежа. Реализовано. 2 Должен быть механизм быстрого и простого обмена ДЭВ между собой, и на фиатные валюты. |
Динамики расположены на торцах и практически незаметны. К слову, звучание через них хорошее, но низкие частоты выражены не ярко, что типично практически для всех мобильных устройств. Экран
IPS-матрица, к несчастью, ещё не стандарт де-факто для планшетов. Поэтому использование её в Трансформере порадовало. Матрица закрыта защитным стеклом, хорошо собирающим отпечатки, без тряпочки для протирки не обойтись. Пожалуй, отпечатки – это и есть «стандарт де-факто» для современных планшетных экранов :) Разрешение экрана в1280 на 800 пикселей повышает качество картинки, а хороший запас яркости позволяет пользоваться экраном на улице в солнечный день. Интересный момент, глянцевое покрытие может превратить экран в «зеркало», но экран на максимальной яркости выводит изображение, читаемое без усилий. У матрицы хорошие углы обзора, и хотя глянец остаётся глянцем, дисплей оказался намного лучше, чем в большинстве современных нетбуков и множестве ноутбуков. #### Камера
Камер в планшете две и расположены они наиболее удобным способом, чтобы случайно не попасть под пальцы. Фронтальная камера в 1.2 Мп обеспечивает приемлемый уровень картинки для видеозвонков. Тыловая камера в 5 Мп находится на уровне камер среднебюджетных телефонов. Съёмка в помещении показывает все возможности камеры, на улице ситуация немного лучше. Через камеру можно записывать видео в разрешении 720p, при этом используется кодек H.264. #### Корпус и порты
Если держать планшет лицевой стороной к себе, то по левую руку на нём будут расположены кнопка вкл./выкл. и качелька громкости, а по правую – microSD, miniHDMI, разъём для наушников. Сверху разъёмов и | кнопок нет, а снизу находится Dock Connector (40pin), через который планшет по кабелю, идущему в комплекте, подключается к док-станции/другому компьютеру/зарядному устройству. С двух сторон от Dock Connector находятся прорези для защёлкивающих замков. Расположены порты удачно, включение и выключение, а так же изменение уровня громкости осуществляется одним пальцем без каких либо затруднений. Привычный и небогатый набор значительно расширится, если подключить док-станцию, выполняющую основные коммуникационные функции. #### Док-станция
Клавиатура с тачпадом, несущая в себе дополнительный аккумулятор, выполнена в тех же цветах, что и корпус планшета. Таким образом, с виду устройство выглядит как полноценный и стильный тёмно-коричневый нетбук. Отличие от нетбука заключается в наличии метал | лического кредла – разъёма для установки планшета. Он подвижный и позволяет выбирать удобный для глаз угол наклона экрана. При этом обеспечивает удачный баланс: экран не перевешивает, «нетбук» не опрокидывается «на спину». Кредл надёжный, сломать его случайно (да и преднамеренно) очень сложно. Чтобы повернуть его, нужно приложить усилие, жёсткость исключает появление разболтанности при многочисленных наклонах/разворотах экрана. Автоматическая защёлка срабатывает при установке планшета. Когда нужно достать планшет, надо отвести рычажок защёлки влево. Защёлка надёжно препятствует случайному разъединению планшета и док-станции – Трансформер можно перевернуть вверх ногами и трясти, не боясь превратить дисплей в хрустящие осколки. В рекламном ролике планшет подключают к док-станции одним простым движением руки. В реальности повторить такой трюк с защёлками вы сможете, при желании, только после многочисленных тренировок – установка требует определённой сосредоточенности и минимум двух рук. Задняя крышка док-станции из матового пластика, в то время как поверхность со стороны клавиатуры – металлическая. Вернёмся к разъёмам. На док-станции есть целых два usb порта, по одному на левую и правую сторону. Порты закрыты защитными заглушками. На левой грани расположен и разъём Dock Connector, аналогичный разъёму на планшете. Используется он точно так же: для подзарядки и подключения к компьютеру. На правой грани, помимо usb, расположен слот для SD-карт, значительно расширяющий вместимость планшета – 32 Гб карточка для картридера окажется незаменимой в полевых условиях, где не всегда удобно использовать переносной жёсткий диск под usb. |
Dict (словарь) — это тип данных Python, представляющий собой набор индексированных, но неупорядоченных пар ключ-значение. JSON — просто строка, которая следует заданному формату и предназначена для передачи данных. ## 28\. Какие ORM вы использовали в Python? Технология ORM (object-relational mapping, объектно-реляционное отображение) связывает модели данных (обычно в приложении) с таблицами БД и упрощает транзакции с базой данных. В контексте Flask обычно используется SQLAlchemy, а у Django собственная ORM. ## 29\. Как работают any() и all()? Any возвращает `true`, если хоть один элемент в последовательности соответствует условию, то есть является `true`. All возвращает `true` только в том случае, если условию соответствуют все элементы в последовательности. [code]
a = [False, False, False]
b = [True, False, False]
c = [True, True, True]
print( any(a) )
print( any(b) )
print( any(c) )
#=> False
#=> True
#=> True
print( all(a) )
print( all(b) )
print( all(c) )
#=> False
#=> False
#=> True
[/code]
## 30\. Где быстрее поиск: в словарях или списках? Поиск значения в списке занимает O(n) времени, потому что нужно пройти весь список. Поиск ключа в словаре занимает O(1) времени, потому что это хэш-таблица. Разница во времени может быть огромной, если значений много, поэтому для производительности обычно рекомендуют словари. Но у них есть другие ограничения, такие как необходимость уникальных ключей. ## 31\. В чем разница между модулем и пакетом? Модуль — это файл или набор файлов, которые импортируются вместе:
[code]
import sklearn
[/code]
Пакет — это каталог с модулями:
[code]
from sklearn import cross_validation
[/code]
Таким образом, пакеты — это модули, но не все модули являются пакетами. ## 32\. Как увеличить и уменьшить целое число в Python? Инкремент и декремент можно сделать с помощью += и -=:
| [code]
value = 5
value += 1
print(value)
#=> 6
value -= 1
value -= 1
print(value)
#=> 4
[/code]
## 33\. Как вернуть двоичный код целого числа? Используйте функцию `bin()`:
[code]
bin(5)
#=> '0b101'
[/code]
## 34\. Как удалить из списка дубликаты? Это можно сделать путем преобразования списка в набор, а затем обратно в список:
[code]
a = [1,1,1,2,3]
a = list(set(a))
print(a)
#=> [1, 2, 3]
[/code]
Обратите внимание, что наборы не обязательно поддерживают порядок следования списка. ## | 35\. Как проверить, существует ли значение в списке? Используйте `in`:
[code]
'a' in ['a','b','c']
#=> True
'a' in [1,2,3]
#=> False
[/code]
## 36\. В чем разница между append и extend?
append добавляет значения в список, а extend добавляет в список значения из другого списка:
[code]
a = [1,2,3]
b = [1,2,3]
a.append(6)
print(a)
#=> [1, 2, 3, 6]
b.extend([4,5])
print(b)
#=> [1, 2, 3, 4, 5]
[/code]
## 37\. Как получить абсолютное значение целого числа? Это можно сделать с помощью функции `abs()`:
[code]
abs(2)
#=> 2
abs(-2)
#=> 2
[/code]
## 38\. Как объединить два списка в список кортежей? Для объединения в список кортежей можно использовать функцию `zip`, причем не только двух, но трех и более списков. [code]
a = ['a','b','c']
b = [1,2,3]
[(k,v) for k,v in zip(a,b)]
#=> [('a', 1), ('b', 2), ('c', 3)]
[/code]
## 39\. Как отсортировать словарь по ключам, в алфавитном порядке? Нельзя «отсортировать» словарь, поскольку словари не поддерживают упорядочение, но можно вернуть отсортированный список кортежей с ключами и значениями из словаря:
[code]
d = {'c':3, 'd':4, 'b':2, 'a':1}
sorted(d.items())
#=> [('a', 1), ('b', 2), ('c', 3), ('d', 4)]
[/code]
## 40\. Как реализуется наследование классов в Python? В приведенном ниже примере класс `Audi` является наследником `Car`. И вместе с этим наследуются методы экземпляра родительского класса:
[code]
class Car():
def drive(self):
print('vroom')
class Audi(Car):
pass
audi = Audi()
audi.drive()
[/code]
## 41\. |
>
> /// рисуем второй слой
> glBlendFunc(GL_ONE, GL_ONE); > glDepthFunc(GL_LEQUAL); > glEnable(GL_BLEND); >
> glBindTexture(GL_TEXTURE_2D, m_textureOfBumpInvert.id); > glPushMatrix(); > glScalef(0.995f, 0.995f, 0.995f); > glDrawElements(GL | _QUAD_STRIP, numberOfIndices, GL_UNSIGNED_INT, m_indices); > glPopMatrix(); >
> /// рисуем третий слой |
> glEnable(GL_LIGHTING); > glBlendFunc(GL_DST_COLOR, GL_SRC_COLOR); >
> glBindTexture(GL_TEXTURE_2D, m_textureOfEarth.id); > glDrawElements(GL_QUAD_STRIP, numberOfIndices, GL_UNSIGNED_INT, m_indices); > } // DrawEarth`
В итоге получается изображение, на котором виден рельеф. Бинарник и исходники проекта можно скачать здесь |
End of preview. Expand in Data Studio
README.md exists but content is empty.
- Downloads last month
- 44