Visual Basic, .NET, ASP, VBScript
 

   
   
     

Форум - Общий форум

Страница: 1 | 2 | 3 | 4 |

 

  Вопрос: Препятствия в создании ИИ ? Добавлено: 28.05.09 02:11  

Автор вопроса:  Morpheus | Web-сайт: xury.zx6.ru

Ответить

  Ответы Всего ответов: 58  

Номер ответа: 46
Автор ответа:
 VβÐUηìt



Вопросов: 246
Ответов: 3333
 Web-сайт: смекаешь.рф
 Профиль | | #46
Добавлено: 30.05.09 19:24
Жмот! :)))

Ответить

Номер ответа: 47
Автор ответа:
 Arvitaly



ICQ: 301746136 

Вопросов: 28
Ответов: 549
 Web-сайт: okazani.ru
 Профиль | | #47
Добавлено: 30.05.09 19:38
Бизнес, дети мои, бизнес - эт те не жрать

Ответить

Номер ответа: 48
Автор ответа:
 VβÐUηìt



Вопросов: 246
Ответов: 3333
 Web-сайт: смекаешь.рф
 Профиль | | #48
Добавлено: 31.05.09 08:51
Само собой, я вообще не тебе, а Смиту, он на такие условия не идет...

:)))))

Ответить

Номер ответа: 49
Автор ответа:
 AWP



ICQ: 345685652 

Вопросов: 96
Ответов: 1212
 Web-сайт: xawp.narod.ru
 Профиль | | #49
Добавлено: 31.05.09 14:51
ИИ конечно сможет убить человечество, но врядли человечество станет делать армию ИИ. Да и в этом случаи ИИ не должен зависеть от человека, но это слишком нереально - человек такого ИИ и за 100 лет не сделает.
В любом случаи все безопасно.

Ответить

Номер ответа: 50
Автор ответа:
 Smith



ICQ: adamis@list.ru 

Вопросов: 153
Ответов: 3632
 Профиль | | #50 Добавлено: 31.05.09 15:00
VDB Unit я на провокации не ведусь... :-|, не вернусь фтопик и фсё тут.

Ответить

Номер ответа: 51
Автор ответа:
 VβÐUηìt



Вопросов: 246
Ответов: 3333
 Web-сайт: смекаешь.рф
 Профиль | | #51
Добавлено: 31.05.09 16:13
Я блин тебя поддерживаю наоборот а ты на меня вася бочку катишь. Ппц народ.

Ответить

Номер ответа: 52
Автор ответа:
 Smith



ICQ: adamis@list.ru 

Вопросов: 153
Ответов: 3632
 Профиль | | #52 Добавлено: 31.05.09 18:58
Ты меня жмотом назвал! В чём и признался в №48 посте. Фигасе поддержка!

Ответить

Номер ответа: 53
Автор ответа:
 VβÐUηìt



Вопросов: 246
Ответов: 3333
 Web-сайт: смекаешь.рф
 Профиль | | #53
Добавлено: 31.05.09 19:03
Ну блин, я ш в шутку, ронимый Смит, ты уж извини если чем обидел)

Ответить

Номер ответа: 54
Автор ответа:
 Smith



ICQ: adamis@list.ru 

Вопросов: 153
Ответов: 3632
 Профиль | | #54 Добавлено: 31.05.09 19:27
Низачто! Так и живи с этим грехом на душе.

Ответить

Номер ответа: 55
Автор ответа:
 Arvitaly



ICQ: 301746136 

Вопросов: 28
Ответов: 549
 Web-сайт: okazani.ru
 Профиль | | #55
Добавлено: 31.05.09 21:28
  1. В любом случаи все безопасно.


Что именно безопасно. Интеллект отличается от алгоритма возможностью самоизменяться, развиваться (эволюционировать).

Ответить

Номер ответа: 56
Автор ответа:
 _Serega



Вопросов: 1
Ответов: 43
 Профиль | | #56 Добавлено: 31.05.09 21:57
В любом случае такое эволюционирование ИИ имеет больше ограничений, чем биологическая модель. То же прореживание связей случайными значениями с сетях в обратным программированием - обычно именно так реализовывается ассоциативность в ИИ это достаточно "стерильная" процедура и это не тоже самое, что попадение в организм посторонней органической структуры, способной вызывать в действительности непредсказуемую мутацию.

Ответить

Номер ответа: 57
Автор ответа:
 Winand



Вопросов: 87
Ответов: 2795
 Web-сайт: winandfx.narod.ru
 Профиль | | #57
Добавлено: 01.06.09 08:01
Ну вы же все понимаете, что если человек создаст сверх-ИИ, способное его убить, то наверняка накосячит в разработке и оно сломается все равно

Ответить

Номер ответа: 58
Автор ответа:
 VβÐUηìt



Вопросов: 246
Ответов: 3333
 Web-сайт: смекаешь.рф
 Профиль | | #58
Добавлено: 03.07.09 11:03
Особенно если ИИ займутся мелкомягкие.

Ответить

Страница: 1 | 2 | 3 | 4 |

Поиск по форуму



© Copyright 2002-2011 VBNet.RU | Пишите нам