Ехидные комментарии. Куда пихать искусственный интеллект при отсутствии обыкновенного?

Не смог пройти мимо очередной бучи в Пентагоне. Там нешуточные страсти кипят по поводу так называемого ИИ (искусственного интеллекта). Такие серьезные вещи говорят в недавно опубликованном докладе... Такие выводы делают...

Ехидные комментарии. Куда пихать искусственный интеллект при отсутствии обыкновенного?


Конечно, весь доклад читать смысла нет. Он огромен, но, по сути, его толком никто в США читать и не будет, для этого как раз интеллект и нужен. Хотя бы для того, чтобы понять, где истина, а где бред. Достаточно краткой выжимки.


В общем, речь идет о том, что США все-таки достигли определенных успехов в отражении кибератак, направленных против государственных структур и служб. И вскоре дипломная работа начинающего хакера на тему "Как взломать сервер Пентагона" станет действительно уделом избранных.

Однако, отталкиваясь именно от своих успехов в борьбе с хакерами, докладчики (К. Филдс, Р. Дэвил и П. Нильсен) говорят о том, что в ближайшие 25 лет США просто обязано выделить дополнительные ассигнования на программы разработки ИИ.

Почему?

"...стране необходимо принять немедленные меры, чтобы ускорить развитие военной технологии искусственного интеллекта. Академические и частные исследования искусственного интеллекта и автономных технологий значительно опережают развитие американских вооруженных сил. Существует реальный шанс, что мы сможем видеть повторение того, что случилось в кибервойне, где США были сосредоточены на отражении атак, и борьба далась нелегко, так как нас застали врасплох".

Аргументация интеллектом не блещет, если так уж, серьезно. Какой, простите, ИИ, если с хакерами обычными еле-еле смогли справиться? Однако, доклад был заслушан и прокомментирован в СМИ уже не раз отпинанным нами Робертом Уорком. Он дал свои комментарии "Financial Times".

Уорк, комментируя доводы докладчиков, говорит о том, что Пентагону нужно собрать больше аналитической информации о возможностях ИИ других народов, а также разрабатывать решения "встречной автономии". Кроме того, авторы предполагают, что США просто обязаны влить гораздо больше ресурсов на разработку и тестирование обучения ИИ, таких, как автономное оружие, которое адаптируется к условиям боя.

Привет, "Скайнет"? Кто-то "Терминатора" насмотрелся? Так стоило бы посмотреть весь сериальчик. Там хорошо было показано, куда завели игрища с ИИ в целом и "Скайнетом" в частности.

Но вывод однозначен: противостоять хакерам США может, а вот, не приведи господь, вражескому ИИ — без шансов. И, соответственно, "надо больше золота!"

А откуда, простите, этот вражий ИИ вдруг нарисуется? Для авторов все просто.

В качестве довода господа докладчики приводят в качестве довода то, что конкуренты, а именно Россия и Китай (внимание!!!) не имеют политики ограничений в разработке самостоятельных летальных военных единиц.

Бабах! Нет, так-то понятно, откуда все мировое зло для США грозит катаклизмом, без проблем. Вывод напрашивается только один: если в России и Китае не запрещено создавать роботов-убийц и наделять их искусственным интеллектом, то, безусловно, они это сделают.

Иначе почему эти русские и китайцы не наложили 10 тысяч запретов на разработку ИИ? Точно, 146% минимум, что в секретных лабораториях России и Китая сотни ученых уже сидят и ломают головы над проектами роботов, наделенных ИИ и способных уничтожать все живое.

"Это не означает, что США должны последовать их примеру, но возможно, потребуется технология, которая сможет помешать смертоносным системам с ИИ, прежде чем станет слишком поздно".

Нет, ну я стоя аплодирую авторам. Данных о наличии какого-никакого ИИ у России и Китая нет. Данных о роботах-убийцах и прочей фигатории тоже нет. Про данные о боевых роботах с ИИ мы тоже молчим, но запилить систему противодействия этим роботам надо уже сегодня. Завтра может быть поздно.

Удобнейшие аргументы для запроса финансирования долгоиграющих проектов. Действительно, что плохого в том, чтобы обеспечить себя работой на ближайшие 25 лет? Учитывая, что делать ничего не надо, то, думаю, неплохо так можно устроиться.

Как предполагают научные советники американского министерства обороны, ключевые направления развития военной техники на ближайшие 25 лет — это искусственный интеллект и автономия.

По мнению Уорка, наиболее перспективная область исследований — усиление взаимодействия между искусственным интеллектом и человеком, когда решение принимается совместно. То есть, этот самый ИИ и человек будут совместно решать, по кому открыть огонь, а по кому не стоит. Перспективка та еще...

Слава всевышнему, правда, речь о том, чтобы предоставить военным роботам полную автономию, пока не идет. По словам Уорка, ближайшие 10-15 лет американские военные намерены сосредоточиться на разработках машин, которые смогут действовать и принимать решения лишь в рамках определенных, заранее заданных параметров.

Опять же по заявлениям Уорка, аналогичная работа сегодня ведется в военных лабораториях России и Китая, однако у США есть ряд преимуществ в сравнении с конкурентами, в том числе значительно больший опыт исследований. Но — "надо больше золота!"

Еще один вопрос, который волнует Пентагон, — как удержать собственные технологические разработки в секрете как можно дольше. Учитывая то, о чем говорилось в начале, — повышенное внимание хакерского сообщества к секретам США и явно недостаточные возможности по защите.

Но и тут у Уорка есть ответ, который по интеллектуальности тянет на пяток килопсак. Уорк говорит о том, что трюк (именно трюк, да!) состоит в том, чтобы «демонстрировать возможности, которые достаточно серьезны, чтобы заставить соперников сомневаться в том, что они способны одержать победу. В то же самое время «главные разработки, способные оказать решающее влияние на ход боевых действий, необходимо держать под строжайшей защитой, подобно военному резерву».

И это заместитель министра обороны... Искусственный интеллект, говорите? Обычным бы обзавелись для начала...

После этого говорить о распиле у нас даже язык не поворачивается. Детский сад, младшая группа.

Использованы материалы:
http://www.acq.osd.mil/dsb/reports/DSBSS15.pdf
Автор: Роман Скоморохов


Мнение редакции "Военного обозрения" может не совпадать с точкой зрения авторов публикаций

CtrlEnter
Если вы заметили ошибку в тексте, выделите текст с ошибкой и нажмите Ctrl+Enter
Читайте также
Комментарии 47
  1. PPD 31 августа 2016 15:17
    А сколько денег нужно для разработки искусственного интеллекта? Их что теперь другому дяде отдать?
    А как же свой карман, тьфу то есть безопасность США ?
    Несерьёзно! laughing
    PPD
    1. Венд 31 августа 2016 16:49
      система самообучаемого искусственного интеллекта GloVe. Эта система анализирует сетевые тексты, а также находит определенную связь между словами. Одной из задач GloVe был подбор слов, подходящих другим словам, которые в дальнейшем делились на «приятные» и «неприятные».

      Роботу предложили промаркировать имена разных людей. В этот момент ученые и выявили «расовые предрассудки» системы. Те имена, которыми обычно называют белокожих людей, GloVe маркировал, как «приятные». А все имена, обычно популярные у темнокожего населения, робот назвал «неприятными»....
      Источник: https://inforeactor.ru/39230-robot-s-iskusstvennym-intellektom-mozhet-demonstri
      rovat-priznaki-rasizma

      Даже роботы осознают, а США все афроамериканцы да афроамериканцы. laughing
      1. hirurg 31 августа 2016 17:27
        Я, вообще, был уверен, что у Американцев уже давно создан ИИ.
        Ну хоть Псаки взять.
        Правильнее сказать совершенствовать ИИ. И найти ему правильное применение. lol
  2. dmi.pris 31 августа 2016 15:27
    Всё как обычно..Денег,дайте денег..
  3. nekot 31 августа 2016 15:31
    Ну то, что упомянутый Уорк неумный человек (или косит под такового для журналистов) нисколько не снижает значимость того факта, что американцы собираются ускорить свои работы по ИИ в военной сфере. Этак и до Скайнета доразрабатываются, благо сценарий уже давно есть, осталось только воплотить идеи Терминатора в жизнь))
  4. JIaIIoTb 31 августа 2016 15:36
    Пиастрыыы! Пиасттры! wassat
  5. михаил3 31 августа 2016 15:40
    Нормальная проектная работа. Этот дядька и не обязан иметь мозги, это не входит в его инструкции. Проект обьявлен? Пока достаточно. Теперь будет решаться вопрос финансирования. Как только пойдут деньги, проект будет запущен. И вот тогда в него придут мозги. А сейчас то зачем? Болтать ума не надо.
    Новость довольно зловещая. Масса вариантов, разумеется не таких как Скайнет (нереально. слишком уязвим этот самый Скайнет. затопчем не заметив), а по настоящему опасных, потенциально способных вычистить на планете любую сколь нибуть разумную жизнь. Работы в этом направлении так опасны, что ядерная война пожалуй получше будет.
    Так надеялся тихо помереть от старости до того, как люди осознают, каких игрушек уже напридумывали. И ведь предельная тупость давал к тому надежду! Эх...
  6. voyaka uh 31 августа 2016 16:26
    Ответственные люди думают вперед. О будущих угрозах. И выделяют
    на это заранее специалистов и деньги. И правильно.
    Надо готовиться не к прошлой войне, а к будущей.
    И в Израиле на эти темы выделяют ресурсы.
    Те кто считают, что это - "распил бюджета" - простаки,
    которые смеются фактически над собой.
    1. Смог 31 августа 2016 18:20
      И тогда почему г-н Уорк Израиль в своем выступлении не упомянул? А все Россия да Китай. Ой, кто то , чего то недоговаривает,
      1. sabakina 31 августа 2016 21:00
        Кажись, в Израиле видять дальнее и ширее, чем В России...Штаны не порвите богоизбранные!
        1. Riv 1 сентября 2016 09:54
          Дальнее... Ширее... Тем временем в Израиле все страньше и страньше.
          Riv
      2. voyaka uh 1 сентября 2016 15:05
        В Израиле фирма Локхид-Мартин строит новейший исследовательский
        центр Cyber, который будет заниматься защитой от кибер-шпионажа.
        А так как предполагается, что кибер-шпионажем на государственном уровне
        будут заниматься, использую ПО и железо с ИИ, то придется заняться и ИИ тоже.
        1. Riv 1 сентября 2016 15:31
          И никого типа не удивляет, что американская фирма строит стратегический объект в Израиле, где террористы и ракетные обстрелы.
          Ну да, в Штатах место уже кончилось...
          Riv
    2. dvina71 31 августа 2016 21:23
      Надо готовиться не к прошлой войне, а к будущей.
      И в Израиле на эти темы выделяют ресурсы.

      Надо изучать и знать физику. А не основываться на фантастических фильмах.
      Основа ЛЮБОГО процессора - транзистор. У которого всего два положения. 1 и 0..
      О каком ИИ можно говорить в принципе?
      Программы сортирующие инофрмацию по признакам,а потом использующие ее не есть ИИ. Это программа. И за рамки своего функционала лона никогда не выйдет.
      Интеллект способен кроме логике делать выводы вопреки логики.
      1. ksa4004 1 сентября 2016 08:11
        не верное утверждение
        Я бы сказал что наш мир в принципе дискретный .
        Вы как человек также сортирует информацию по признакам , рекомендую почитать про то как мы видим и воспринимаем информацию.
        Мозг человека состоит из нейронов , по синапсам либо есть сигнал либо нет (0 и 1 ).
        Также обратите внимание в сторону нейроных сетей.
      2. Riv 1 сентября 2016 08:16
        Грань между экспертной системой и ИИ крайне размыта. Если интеллект базируется на обычной двоичной логике, то он принципиально не должен принимать алогичных решений. Это следует из одного из базовых законов логики: из ложной посылки следует все, что угодно. Программа, принимающая рандомные решения, не может считаться ИИ.

        Однако решение может быть хотя и рандомным, но НЕ ПРОТИВОРЕЧАЩИМ исходным данным. И если программа способна: 1) накапливать данные 2) принимать непротиворечащие им решения 3) обучаться на последствиях их принятия, переоценивая исходные данные - то она уже вполне может называться искусственным интеллектом. Собственно выделяют даже виды ИИ, но этот алгоритм - базовый.
        Riv
      3. voyaka uh 1 сентября 2016 15:08
        "У которого всего два положения. 1 и 0..
        О каком ИИ можно говорить в принципе?"///

        О таком же, как в нашем мозге. Где вместо транзисторов нейроны,
        а вместо проводов - нервы и микро кровяные сосуды.
        А в остальном то же самое: 1 и 0...
        1. gridasov 1 сентября 2016 15:35
          Вы утверждаете , что все именно так?
        2. Riv 1 сентября 2016 15:35
          Вы путаете цифровую и аналоговую вычислительные системы. Между тем это принципиально разные вещи. Попытки смоделировать на компьютере работу человеческого мозга скорее всего никогда не увенчаются успехом. Это примерно как на примере двух апельсинов пытаться смоделировать систему Земля-Луна. Будет немножко похоже, но... не то.
          Riv
        3. dvina71 1 сентября 2016 22:44
          О таком же, как в нашем мозге. Где вместо транзисторов нейроны,

          Я не думаю,что мой мозг отличается от вашего или любого другого хомосапиенс. И есть одна проблема.. работа человеческого мозга не изучена даже на несколько процентов. А вы делаете такие громкие заявления.
          Интеллект..это кроме всего прочего спосоность к воображению.
          Ну и давайте.. попробуйте оцифровать ..это самое..воображение. Успехов.
          1. gridasov 2 сентября 2016 09:59
            Любое воображение , мысль , чувство , эмоци. можно описать математически по трем видов параметров-это размерность поляризация контрастных позиций и направления анализа. Поэтому Мозг всех людей одинаков по структуре и механизму работы , но принципиально может отличаться по механизму анализа событий которые он осмысливает или интуитивно ,т.е автоматически соизмеряет.
            Покажите мне того человекообразного индивидуума . которые обладает высшим уровнем знаний о механизме работы мозга человека. Насколько нам известно таковых пока нет.Не считая тех кто обладает аномальными качествами относительно среднестатистического человека , но все-равно которые не понимают механизма восприятия и анализа работы мозга.
            1. dvina71 2 сентября 2016 11:32

              0
              gridasov Сегодня, 09:59 ↑ Новый
              Любое воображение , мысль , чувство , эмоци. можно описать математически по трем видов параметров-это размерность поляризация контрастных позиций и направления анализа. Поэтому Мозг всех людей одинаков по структуре и механизму работы , но принципиально может отличаться по механизму анализа событий которые он осмысливает или интуитивно ,т.е автоматически соизмеряет.
              Покажите мне того человекообразного индивидуума . которые обладает высшим уровнем знаний о механизме работы мозга человека. Насколько нам известно таковых пока нет.Не считая тех кто обладает аномальными качествами относительно среднестатистического человека , но все-равно которые не понимают механизма восприятия и анализа работы мозга.

              Зашибись текст. То есть вы математически собрались описать то,что никому не известно?
              НУ и о каком ИИ тут можно говорить?Когда человеческое сознание генерирует такие перлы.
      4. Комментарий был удален.
        1. Riv 1 сентября 2016 15:43
          У вас странные представления о взломе компьютерных систем. Оно сводится к расшифровке содержимого носителей и все. Между тем, хакинг - это нечто большее и расшифровка - это еще не все. Да и не заморачивается никто на эту тему. Если есть шифр, то есть и ключ. А если есть ключ, то его можно у кого то получить, отнять, купить... "с безчувственного тела" наконец...
          А сто лет на "чистую" расшифровку никто тратить не станет.
          Riv
          1. gridasov 1 сентября 2016 16:12
            Взламывается не код , а взламывается "мозг " т.е методика программиста , на языке которого написана система . Хотя язык подразумевает двоякую форму-общепринятой методики написания программ и собственно стиль программиста. Но разговор не об этом . Компьютер как система сбора и "анализа "информации и т.д приобретает способность строить анализ в прямом смысле этого термина только и только тогда , когда она владеет всеми вариантами возможностей построения и настояших событий и тех которые развиваются в динамике и в разнодинамических процессах каждого индивидуального процесса. Поэтому сейчас и наступил момент , когда искаженная компьютерами реальность создала огромную проблему на уровне всего человечества , что люди стали неадекватными в восприятии реальности и процессов ее трансформации . Я бы даже сказал , что человечество создало особый вид вируса разрушающего способность человека видеть эту реальность. Поэтому человек сейчас и проблемы -то вообще не видит , думая , что все происходить просто само по -себе.
            1. Riv 1 сентября 2016 19:37
              Чего??? Взламывается мозг? А, ну да, конечно. Вы же с Украины. Как я сразу не обратил внимания? Мозг взломан, однозначно. :)
              Riv
      5. gridasov 1 сентября 2016 15:32
        Весьма мало людей кто вообще понимает , что двоичный код транзистора и последовательная запись кода не позволяет создать такую программу , которая бы не была взломлена или к которой не было бы доступа. У Теслы был идейный учитель - Руджеп Бошкович. И он говорил , что "если взять самую длинную поэму Виргилия и разложить ее по буквам и сложить в корзину, то из нее всегда можно эти буквы сложить так , что получиться изначальная поэма". Поэтому правильно Вы говорите , что нужно знать и понимать когда и как можно построить систему которая будет открыта и одновременна не сможет дать доступ к ее исходным параметрам. Это можно создать только на основе бесконечных переменных алгоритмов ЧИСЕЛ, которые будут выражены своим постоянным и неизменным функционалом. Поэтому на функции или свойствах числа , которые используются сейчас невозможно создать нечто , что не может быть "взломано". А значит и транзистор должен быть мультиполярным , а не на двоичной функции
        Ответить Цитировать Жалоба Еще...
      6. trantor 1 сентября 2016 17:45
        Про остальное не скажу, но с транзистором (именно с ним) на "два положения" вы явно погорячились hi
        1. gridasov 1 сентября 2016 18:06
          Мы все-таки говорим про двоичный функционал работы транзистора. А именно вопрос касается того , что человек не владеет методом когда импульс можно ассоциировать с числом . При этом не ассоциируя само число ни с какими символами и др.
    3. gridasov 1 сентября 2016 13:36
      ВАм комплимент ! Искуственный интеллект это то, что люди даже себе не представляют , а если и русуют своим воображение, то только до уровня собственных способностей . Все будет гораздо трагичнее . Даже просто расшиирение воображения сразу даст возможность создавать и реализовывать такие мероприятия , которые для других будет неминуемой гибелью. Это сейчас все смеются и дурачатся пока вокруг установившиеся взаимосвязи и соблюдается баланс сил. Но искуственный интеллект , даже в начальной форме дает возможность разделить людей по интеллектуальному уровню , а значит и возможностям. И уж точно тогда не будет разделения по военному и боевому его применению или гражданскому. Искуственный интеллект это система нейтральных ценностей в постановке ориентиров и анализа , но иметодов решения задач.
  7. meriem1 31 августа 2016 16:43
    Цитата: nekot
    Ну то, что упомянутый Уорк неумный человек (или косит под такового для журналистов) нисколько не снижает значимость того факта, что американцы собираются ускорить свои работы по ИИ в военной сфере. Этак и до Скайнета доразрабатываются, благо сценарий уже давно есть, осталось только воплотить идеи Терминатора в жизнь))

    Очень уж они ограничены в своей профессиональной сфере! В ней они хорони. Шаг в сторону ставит их в тупик.
    1. gladcu2 31 августа 2016 19:41
      meriem

      Быть умным при капитализме, чревато самоубийством.

      Ты не можешь быть умнее своего начальником, иначе начальник тебя уволит. А так как ты больше ничего делать не умеешь, а переквалифицироваться не можешь. Тупо не хватит ресурсов, денег. То лучший выход это - пнтля.

      Поэтому при капитализме умных убивают. Условия конкуренции.

      Ну есть , выход. Стань начальником. Тогда научись убивать. Убивать придется самомому. И никакой ИИ, тебе не поможет. Потому как дав ему право убивать, он автоматически становится над вами.
  8. afrikanez 31 августа 2016 16:47
    Америкосы в своем репертуаре, сами придумают страшилку и непременно начинают с ней бороться. Что за народ такой чудной? fool
  9. непотопляемый 31 августа 2016 16:48
    Нельзя впихнуть невпихуемое.Ни с деньгами ни без денег. yes
  10. EvgNik 31 августа 2016 18:59
    Много споров, много статей на эту тему. Наиболее спокойная и разумная статья, по моему, вот эта:
    http://dic.academic.ru/dic.nsf/ruwiki/1423
  11. Смог 31 августа 2016 20:20
    Нет, ну неужели непонятно куда все это запихнуть
  12. sabakina 31 августа 2016 20:55
    После этого говорить о распиле у нас даже язык не поворачивается. Детский сад, младшая групп

    Детский сад № 38 "Алёнка". Нам там показывали диафильмы. Я всегда думал, то картинки сами перемещаются...А оно вон как...Воспитательница своим интеллектом перемещала!
  13. Горменгаст 31 августа 2016 21:23
    Между тем, пресловутый закон Мура прекратил, или скоро прекратит своё действие - микроминиатюризация электронных компонентов дошла до предела, где уже сказываются квантовые эффекты. А ИИ все нет, и неизвестно - будет ли он.

    Такое впечатление, что USAйцы опять собираются вбухивать бюджет Пентагона непонятно во что. И ладно бы деньги они зарабатывали - а они их просто рисуют.
  14. akudr48 31 августа 2016 22:09
    Кому это автор советует обзавестись хотя бы обычным интеллектом?

    Стране, которая является источником всех действительных инноваций в компьютерных технологиях, на 100% владеет системным софтом и опережает всех по разработкам в т.ч., в военной сфере, на десятилетия...

    Посерьезней надо относиться к заклятому партнеру, и выводы делать из подобных докладов следует, предварительно прочитав их.

    Шапкозакидательство и легкость в мыслях необыкновенная...
    1. ksa4004 1 сентября 2016 08:21
      согласен с akudr48
      ИИ в том виде которое хотят дальше развивать это наиболее верное решение в текущих реалях. Именно терминатор наиболее близок к этому (адаптивная машина) ,а вот скайнет нет ... там есть самосознание.
      То что хотят сделать это механизм для идентификация и нейтрализации угрозы по ни чёткому принципу. Сейчас программам надо знать точную сигнатуру угрозы для её идентификации , но мир не стоит на месте и кол-во поступающий информации увеличивается на порядок, таким образом доработка программ для точной идентификации становится слишком дорого. Поэтому адаптивная сеть наиболее экономически целесообразное решение.
      Я думаю наши тоже должны разрабатывать нейроные сети для управления РЭБ , так что зря многие так ехидно это воспринимают :)
      1. gridasov 1 сентября 2016 13:48
        Нейронные сети так же должны иметь алгоритмические связи . Иначе будете возить с собой завод мозгов на процессорах да впридачу еще и электростанцию.
  15. Riv 1 сентября 2016 08:05
    Гиперзвуковые роботы-убийцы... Аааааааа! Мыфсеумрем!!!111
    Riv
  16. BlackMokona 1 сентября 2016 13:55
    Автор в своей тотальной безграмотности забыл воскликнуть.
    "Кибернетика продажная девка империализма" laughing
  17. gridasov 1 сентября 2016 19:42
    Riv, Есть закономерность. Как только не хотят думать сразу переходят на флаг. Я же вам не вся украина. Или у вас ума ровно настолько , чтобы каждого считать ......Кстати в среде полного неадеквата более ощутимо воспринимаешь кто есть -кто
  18. Berkut752 1 сентября 2016 21:21
    Уважаемые, включите мозХ, самый совершенный компьютер на данный момент, занимает площадь 150 метров КВАДРАТНЫХ, но не является ИИ.
    1. gridasov 1 сентября 2016 22:10
      Хоть один человек понимает , что вся проблема и решения в математической основе , а не в процессорах на двоичном коде . При этом математический процесс требует и соответствующего процессора как промежуточного устройства трансформирующего код в работе. Это и позволит решить проблему роста энергозатрат на передачу единичного кода в виде импульса. Потому , что кроме значительных площадей существует и вопрос энергообеспечености . Ну а поскольку никто не желает думать про возможности комплексных решений, то отдельные решения не дадут совокупного прогресса
  19. gridasov 2 сентября 2016 15:08
    dvina71,
    dvina71,
    Во первых если кто-то чего-то не знает , то это не значит , что этого не существует. Во -вторых это не значит , что другие этого не знают . А в- третьих ИИ изобретет мозг человека , а значит он в основе должен быть более совершенен. Потому , что в ИИ не должно быть простоо алгоритмов системных ориентиров , относително которых будет осуществляться анализ. Ведь человек строит анализ относительно своей морали , этики , целей которые им движут и т.д. Думаю . что зададите воспро , что такое системные ориентиры , это именно те трансформирующиеся формы морали этики и др.
    1. TOPchymBA 2 сентября 2016 19:30
      Все Ваши рассуждения из серии - ингридиенты интерполяцыонных ковалентов всегда адекватны.

Информация

Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Картина дня