10 технічних навичок, за які добре платитимуть у 2016 році | Альтернатива

10 технічних навичок, за які добре платитимуть у 2016 році

 Нині айтишник одна із найбільш запитуваних професія. Грамотні фахівці швидко знаходять роботу, але щоб залишатися в числі кращих і отримувати відповідну зарплату, потрібно постійно вдосконалювати свої навички – як у спорті, інформує ресурс ain.ua.

Рекрутінговий сайт Dice.com опитав понад 16 тисяч IT-фахівців, щоб визначити, знання яких технологій роботодавці цінують найбільше і готові щедро оплачувати. Business Insider узагальнив зібране.

Puppet

PuppetЦе кроссплатформне ПЗ для автоматизації від компанії Puppet Labs, молодої компанії, яка осідлала новий тренд – так званий DevOps. Це коли розробники, що створюють ПЗ (Dev), і команди, відповідальні за його розгортання (Ops), використовують певні техніки і завдяки цьому можуть запускати технології, як тільки вони з’являються на світ.

Фахівцям, які впораються з Puppet, в США готові платити в середньому $131121 на рік.

MapReduce

MapReduceЦе фреймворк, який використовується для аналізу даних, щоб отримати більш точні інсайти. Часто його пов’язують з Hadoop, системою, за допомогою якої можна економно зберігати дані на купі недорогих серверів.

Фахівці, які вміють працювати з MapReduce, в середньому заробляють $ 131563 на рік.

Pig

Pig HadoopЩе один гарячий навик, пов’язаний з Hadoop. Це мова програмування, який допомагає витягати дані з Hadoop, отримувати відповіді на запитання і взагалі як-небудь використовувати інформацію.

Айтішники, що «осідлали» Pig, в середньому заробляють $ 132850 на рік.

Chef

А це ще одне автоматизований ПЗ, яке також в DevOps-тренді і конкурує з Puppet. Ті, хто опанував Chef, в США в середньому заробляють $ 136850 на рік.

CloudStack

Хмарні технології – великий тренд. Сьогодні у світі розгортається битва «хмарних операційних систем». Деякі з них безкоштовні і відкриті (opensource), але їх, як правило, роблять компанії, які хочуть навздогін продавати комерційні версії таких продуктів.

CloudStackОдним із прикладів є CloudStack – продукт компанії Apache Software Foundation, яка також розробила багато інших opensource-продуктів. А підтримку CloudStack надає Citrix, який пропонує комерційні версії цього ПО.

Адепти CloudStack в середньому заробляють $ 138095 на рік.

OpenStack

Ще одна безкоштовна хмарна операційка з відкритим кодом. Її підтримують багато вендори, вони ж продають комерційні версії цього ПО. Серед них IBM, HP, Red Hat, Ubuntu та інші.

Хто навчиться працювати з OpenStack, в середньому буде отримувати в СЩА $ 138579 на рік.

PaaS

Зараз в моді все, що називається «як сервіс». PaaS (platform as a service / платформа як сервіс) – це хмарний сервіс, який дозволяє розробникам створювати додатки прямо в хмарі і там же їх зберігати. З найвідоміших аналогів – Microsoft Azure.

Хто вміє користуватися PaaS, може розраховувати на зарплату в середньому $ 140 894 на рік.

Cloudera

ClouderaЦе комерційна версія Hadoop. Незважаючи на те, що Hadoop – це безкоштовна версія з відкритим кодом, яка дозволяє зберігати дані на недорогих серверах, користуватися нею непросто. Кілька компаній розробили більш дружні версії Hadoop, і Cloudera – одна з найпопулярніших.

У США тим, хто працює з Cloudera, в середньому платять $ 142835 на рік.

Cassandra

CassandraЦе безкоштовна і оупенсорсная «noSQL» база даних, яка дозволяє зберігати і використовувати дані різних типів і розмірів. Вона стрімко набирає популярність серед баз даних для мобільних і хмарних додатків. Apple використовує Cassandra на всю котушку, зберігаючи близько 10 петабайт даних. Ще її використовує Netflix і багато інших.

Знаєте, що таке Cassandra і з чим її їдять? У США такі люди в середньому заробляють $ 147811 на рік.

HANA

HANA SAPHANA – це база даних від SAP, головного конкурента Oracle. HANA належить до нової хвилі так званих «in-memory» баз даних. Вона запускається і працює повністю в пам’яті комп’ютера, а не з жорстких дисків, і може обробляти величезну кількість даних практично миттєво.

Знавці HANA в Америці в середньому заробляють $ 154749 на рік.

Apache Hadoop is an excellent framework for processing, storing and analyzing large volumes of unstructured data - aka Big Data.