Зачем нужен искусственный интеллект. Разница между словами "почему" и "зачем"

Lamoda в представлении не нуждается. Это именно тот магазин, в котором за адекватные деньги можно стильно и модно одеть всю семью, купить косметику, парфюмерию, обувь и всё для домашнего обихода.

«Ламода» доказывает, что выглядеть по-современному – это совсем недорого. Более полумиллиона наименований различных групп товаров представлено на сайте интернет магазина. И все они – подлинники известных брендов, в ассортименте гипермаркета их более 900.

Почему в Lamoda стильные вещи стоят так дешево?

Все просто. Потому что Ламода со всеми компаниями работает по договору, который предусматривает снижение стоимости за счет увеличения оборота.

Это выгодно и производителю, и супермаркету, и нам, покупателям. Купить настоящий фирменный спортивный костюм Adidas или модную парку Tom Farr по цене китайских подделок на вещевом рынке – это не фантастика. Это – Lamoda.

Получите обратно часть своих денег

LetyShops помогает вам экономить еще больше: при оформлении покупок в магазине через наш сервис, вы получаете 5% кэшбэк. Период зачисления возвратных средств на ваш счет LetyShops в среднем 23 дня, это «живые» деньги, которые вы можете потратить по своему усмотрению.

Почему выгодно покупать в Lamoda?

Покупать здесь выгодно не только потому, что цены демократичны. Но и потому, что:

  • Вам не нужно тратиться на проезд в торговый центр, выделять время на примерки и обход бутиков: вы можете заказать столько вещей, сколько вам приглянулось.
  • В течение 1-3 дней к вам с вашим заказом прибудет курьер, и вы в спокойной домашней обстановке примерите все, что вы заказали, и оплатите только то, что вам понравилось и подошло. Причем оплатить вы сможете как наличными деньгами, так и банковской картой – каждый курьер имеет при себе мобильный терминал.
  • Доставка абсолютно бесплатна более чем в 60 городов России!
  • Период на обмен товара не 14 дней.

Гарантия

«Ламода» гарантирует, что вы покупаете подлинные вещи выбранного бренда. Также магазин дает гарантию на качество изделия – ваши права защищены по законодательству РФ и Европы, поскольку каждая знаменитая торговая марка очень ответственно относится к качеству своих товаров и трепетно – к своей репутации. Покупать в Lamoda безопасней, чем в соседнем торговом центре!

И это еще не все: Кроме постоянно действующего кэшбэка в магазине Ламода каждый день предлагается что-то новенькое: дополнительные скидки, праздничные распродажи, счастливые часы и т.д. Получить больше информации о том, как купить качественные люксовые вещи по стоимости месячного проездного на автобусе, вы можете на официальном сайте Lamoda – на главной странице сразу указаны все бонусы, которые приготовил для вас интернет портал на сегодняшний день.

Как получить кэшбэк

Прямо сейчас регистрируйтесь на нашем сервисе, по ссылке «перейти в магазин » отправляйтесь на виртуальный шоппинг. Заполняйте корзину всеми интересующими вас товарами, оформляйте покупку – и cashback автоматически будет зачислен на ваш личный счет в LetyShops, а вывести деньги вы сможете любым удобным для вас способом: на электронный кошелек или банковскую карту.

Правильная экономия с Lamoda

Несмотря на обилие интернет магазинов со скидками, выгоднее, чем Ламода, найти сложно. Невероятное количество суперпредложений, действительно настоящие, неподдельные бренды, небольшая стоимость, огромный ассортимент, возможность бесплатной примерки и гарантированный кэшбэк делают Ламоду самым популярным интернет гипермаркетом в России.

Присоединяйтесь к клубу Ламода и LetyShops! На сэкономленные средства вы без проблем купите ТОПовую вещь из последней коллекции любимого бренда или порадуете близких подарками на праздник.

Искусственный интеллек (ИИ) пытается ворваться во все сферы жизни человека. Но прежде чем допускать искусственную нейросеть к новой проблеме стоит хорошо подумать.

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области.

Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.


Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных.

Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии.

Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами.

Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом.

Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.


В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта.

Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать. опубликовано

Если у вас возникли вопросы по этой теме, задайте их специалистам и читателям нашего проекта .

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.

Сражаясь с компьютерным противником, часто воображаешь его гораздо умнее, чем он есть на самом деле. Однако стоит приметить оплошность, и иллюзия рассеивается.

Игромания https://www.сайт/ https://www.сайт/

Мы поговорим о лучших ИИ, встречавшихся в компьютерных играх.

Ложные ИИдолы

Словосочетание «искусственный интеллект» звучит весомо и даже возвышенно. Представляется нечто загадочное и непостижимое, над чем работают настоящие гуру программирования, владеющие тайными, почти мистическими знаниями. Они наделяют машину способностью думать подобно человеку!

Однако игровой ИИ — это всего лишь набор правил и алгоритмов. Иногда сложных, иногда не очень. В качестве примера возьмём игру «Ним» , в которой двое поочерёдно берут предметы из кучек. Или крестики-нолики. В обоих случаях программа сводится к простому алгоритму: компьютер поочерёдно просчитывает все возможные ходы, а затем выбирает наиболее выгодный.

Игру го компьютер осилил с гораздо большим трудом, чем шахматы. Это стало возможно только благодаря последним успехам в области нейросетей.

Привычные нам игры, по большей части, ушли недалеко. Скажем, для стратегии в реальном времени самая сложная часть — это алгоритм поиска пути. Чтобы каждый юнит мог передвигаться и обходить препятствия, компьютер непрерывно просчитывает сотни вариантов маршрута и выбирает самый короткий.

А как же противники? Они кажутся сверхмозгом в основном благодаря искусственным преимуществам в ресурсах и возможности управлять всем хозяйством одновременно, остальное суть набор правил вроде атак волнами и последовательности постройки зданий. Опытные игроки хорошо об этом знают и неизменно находят слабые места.

Nimrod — один из первых компьютеров с графическим интерфейсом. Разрешение его «дисплея» — 4 на 7 точек, то есть 28 лампочек.

Несмотря на скромные начальные возможности, искусственный интеллект вошёл в игры почти с самого появления компьютеров — намного проще научить машину взаимодействовать с людьми в рамках жёстко заданных правил, чем в реальном мире.

Ум в предметах

В качестве примера игры с интересным ИИ часто приводят The Sims , ведь чтобы изображать повседневную жизнь людей, компьютер, наверное, должен думать как человек.

Кажется, что симы всё время о чём-то думают.

Игра умножает каждый из показателей на соответствующие нужды персонажа и пересчитывает всё в очки счастья: чем дольше сим не ходил в туалет, тем больше счастья принесёт ему комната для размышлений. Учитываются и прописанные персональные предпочтения, и расстояние до объектов. Социальная жизнь строится на том же принципе: когда кому-то из симов «станет скучно», он придёт поболтать — восполнить нужду.

Чтобы лучше представить себе этот алгоритм, создатель Sims Уилл Райт предлагает вообразить «ландшафт счастья» (happyscape): поверхность, на которой высота означает получаемое на ней количество счастья. Персонаж выбирает любой из ближайших холмов и использует манящий его предмет. Когда нужда будет удовлетворена, холм разглаживается, а сим переходит к покорению следующей вершины.

Девушка или холодильник? Пожалуй, холодильник!

Голод утолён, пора общаться — пирамида Маслоу в действии.

Иногда подопечные начинают творить откровенную ерунду — всё потому, что разработчики нарочно заложили изъян. Алгоритм берёт верхнюю часть списка нужных действий и выбирает из него случайным образом: сим может сесть смотреть телевизор, проигнорировав позывы мочевого пузыря. Если б персонажи сами отлично справлялись, это не оставило бы работы для игрока — иногда ИИ приходится нарочно портить.

Нейроны и норны

Порой разработчики пытаются создать ИИ, который действительно моделировал бы работу человеческого мозга, но таких примеров единицы. Наиболее знаменитый из них — игра о питомцах, под названием Creatures .

В 1992 году британский учёный Стив Гранд решил попробовать себя в разработке коммерческого софта. Он предлагал потенциальным инвесторам идею виртуального питомца — мыши, которая жила бы на рабочем столе Windows. Она должна была постепенно обучаться новым трюкам благодаря заложенной нейросети.

Норнам в Creatures предстоит освоить большой и красивый мир.

Позже идея превратилась в полноценную игру о виртуальных персонажах — норнах. Пушистое создание вылупляется из яйца, а человек должен помочь ему познать мир: научить каждому слову, повторяя его по много раз и показывая на то, что оно означает, а также заставлять выполнять простейшие действия, поощряя хорошее поведение. Тем не менее норны часто забывают уроки и ошибаются — это и есть огромное достижение разработчиков.

В основе искусственного интеллекта каждого питомца лежит нейросеть из тысячи нейронов, поделённая на кластеры. Каждый кластер выполняет одну из задач: чувства, фокусировка внимания, память и принятие решений. Норны ассоциируют действия с поощрениями и наказаниями и делают обобщения на основе предыдущего опыта, что помогает им действовать в новых условиях.

Общая схема мозга норна.

Поведение норнов регулируется теми же гормонами, что и у живых существ, поэтому они могут жаждать общения и развлечений, равно как чувствовать боль, голод, усталость и так далее, — всё это отражается на балансе химических элементов их крови в специальной консоли.

Каждое действие приходится втолковывать по много раз.

Так должна была выглядеть четвёртая часть Creatures, но до разработки дело не дошло.

Есть и другие примеры того, как искусственный интеллект изображает питомца со сложным поведением: вспомним гигантских зверей из Black & White , щеночков из Nintendogs или норовистого Трико из The Last Guardian . Однако имитация развития и обучения по-прежнему остаётся редкостью.

Все жаловались на капризы Трико, но разве не так ведут себя настоящие питомцы?

Вне индустрии компьютерных игр существуют научные проекты настоящей симуляции живых существ. В рамках проекта OpenWorm (на картинках) учёные воссоздали физическую модель тела круглого червя с тремя сотнями работающих нервных клеток: в виртуальном окружении червь ведёт себя так же, как вёл бы в жизни. А резонансный Human Brain Project , в который европейское правительство вложило миллиард евро, пытается воссоздать в машине человеческий мозг. Правда, до этого пока очень далеко.

Запах свежих трупов

До сих пор мы обсуждали тихие и спокойные игры. Как насчёт шутеров? В них ИИ должен принимать решения не просто на ходу, а на бегу. И пусть здесь компьютерные противники не растут и не развиваются (продолжительность их жизни чаще всего измеряется секундами), но они должны составлять достойную конкуренцию человеку. Или хотя бы не казаться слишком тупыми.

В ранних шутерах вроде Wolfenstein 3D и Doom с искусственным интеллектом всё было просто: монстры поворачивались в сторону игрока, бежали к нему и стреляли, как только он входит в комнату, — вот и весь алгоритм. В Quake их поведение уже стало достаточно сложным, чтобы игру начали критиковать за плохой ИИ.

Ом-ном-ном!

Первым же шутером, заслуживающим в этом плане внимания, стал Half-Life . Там были и дружественные персонажи, и сражения, не зависевшие от участия игрока, и прочие нетривиальные вещи. Чтобы сделать мир живым и подвижным, разработчикам из Valve пришлось написать огромное количество скриптов. Например, совсем недавно обнаружилось, что у персонажей и монстров в Half-Life есть обоняние: свежий труп в течение тридцати секунд испускает запах, и если, например, неподалёку бродит буллсквид, то он непременно прибежит полакомиться. Люди же, проходя мимо, заметят, что пахнет не очень.

F.E.A.R. . Контекстная информация в ИИ врагов позволяет им не просто действовать сообща, но прикрывать друг друга, прятаться за укрытиями вроде столов и книжных шкафов, открывать двери, выбивать окна, и так далее.

Но даже самый замысловатый ИИ в шутерах умён только при хорошо продуманных уровнях. Немалая часть «мозга» противников опять же заложена в окружение: дизайнеры уровней прописывают выгодные для стрельбы места и точки укрытий. Ну и конечно, при тестировании выявляются случаи, когда противник выбирает недосягаемую цель и печально упирается в стену. Вот такой вот интеллект!

Разработчики придумывают всё более красивые методы заставить нас думать, что мы имеем дело с равным противником. В компьютерной графике подобный обман называется «дым и зеркала», и точно так же, как компьютеру не под силу реальные оптика и физика, не может он и воссоздать интеллект человека. Приходится идти на уловки.

Впереди тем не менее всё то же непаханое поле. Да, можно обойтись и простыми скриптами — играть всё равно будет весело, но крутой ИИ полностью меняет игровой процесс. Учитывая последние достижения в области нейросетей, можно ожидать не просто улучшения разума противников в играх, но и появления совершенно новых механик.

Вспомним проект DeepMind , в рамках которого исследователи из Google ставят разные эксперименты с нейросетями, в том числе учат их играть в компьютерные игры. Всего за несколько часов компьютер становится профессионалом по одной из старых игр для Atari.

Если ждать достаточно долго, можно проникнуться своим несовершенством.

Не исключено, что, идя по этому пути, можно создать свирепейших соперников для современных игр. Или наоборот — разумных компаньонов. Кто знает?

Одна из любимых тем у меня и самых любознательных учеников - это смысловая разница между схожими, а то и одинаковыми, с первого взгляда, словами и выражениями.

Очень часто иностранцы, уже довольно хорошо владея русским языком, "прокалываются" на использовании слов, которые кажутся типичными синонимами, но на самом деле имеют разный смысл, особенно в контексте. Один из самых распространенных случаев - использование слова "почему" вместо "зачем". Если вы совершаете такие ошибки, не переживайте, это более чем естественно, ведь вне контекста смысл у этих слов примерно одинаковый и несет ту же смысловую нагрузку, что и английское слово "why", которое используется и в смысле "почему" и в смысле "зачем", и даже в смысле "а что".

Почему ты сегодня такой грустный? - Why are you so sad today?
Зачем мы пришли в это кошмарное место? - Why we have come to this terrible place?

Ты замужем? - Are you married?
Нет. А что? - No. Why?

Поскольку студенты, которые только начинают знакомиться с русским языком, часто калькируют слово в контекст в случайном из его словарных значений, то выходит смысловая путаница. Представьте ситуацию. Я хочу отправить вам видеоурок, но не знаю, сможете ли вы его посмотреть, есть ли у вас для этого техническая возможность. Тогда я решаю задать вопрос, и происходит следующий диалог:


- Да. Почему?

- У вас есть видеоплеер на компьютере?
- Да. А почему?

В первом случае вы явно хотели сказать "Да. А что?", а во втором "Да. А зачем?"

Я спрашиваю у вас, установлен ли на вашем компьютере видеоплеер, и вам становится интересно, зачем он может понадобиться, но в связи с использованием слова "почему", смысл встречного вопроса искажается. Точнее, звучит вопрос совершенно неестественно. Слово "почему" в данном случае использовалось вместо слова "зачем", но по смыслу оно его не заменило.

Как же понять, в каком случае мы используем слово "зачем", а в каких "почему"? Давайте разбираться.

Перед тем, как задать вопрос, необходимо понять, что мы имеем в виду: цель или причину действия.

Вопрос "зачем" можно заменить на следующие вопросы: "с какой целью?", "для какой цели?", "для чего?"

Вопрос "почему" можно заменить на следующие вопросы: "что к этому привело?", "что вас заставило это сделать/так подумать?"

Стало быть, когда во время нашего короткого диалога вы хотите выяснить, зачем вам видеоплеер, ясно, что вы по сути спрашиваете: "для какой цели он мне нужен?", "для чего он мне нужен?"

Давайте попробуем использовать эти вопросы. Диалог может быть, например, таким:

- На вашем компьютере есть видеоплеер?
- Да. Почему вы спрашиваете?

В данном случае вопрос "почему" используется абсолютно правильно, потому что вопрос "почему вы спрашиваете?" по смыслу равняется вопросу "что вас заставило задать этот вопрос?" (последнее выражение звучит слишком официально и строго, но сейчас это не имеет значения, наша задача сейчас - почувствовать разницу)

Русский язык не возможен без исключений, поэтому бывают и такие случаи, когда слово "зачем" используется в значении "почему". Это редкость, и данная форма считается устаревшей, но ее можно встретить, например, в художественных текстах, в поэзии. Звучат такие фразы более возвышенно, нежели повседневная речь, более эмоционально. Например: "Зачем я не птица?.."

Говорящий не спрашивает, с какой целью он родился человеком, а с некоторой ноткой сожаления спрашивает, почему, по какой причине он не способен парить в воздухе и чувствовать себя более свободным.

Итак, подытожим сказанное короткой формулой.

Зачем = Цель
Почему = Причина