Использование GPU для обработки цифровых данных

Тема в разделе "WASM.Compute", создана пользователем v_mirgorodsky, 4 мар 2009.

  1. v_mirgorodsky

    v_mirgorodsky New Member

    Публикаций:
    0
    Регистрация:
    7 авг 2006
    Сообщения:
    53
    Прошу прощения за возможно ламерский вополс, но времени серьезно углубиться в предмет не хватает, а понять некоторые аспекты хочется :)

    На днях читал статью о использовании видеокарт для обработки совсем даже и не видео информации. В статье приводились примеры выполнения на современных чипах NVIDIA объемных инженерных расчетов. На статью попал совершенно случайно, потому линк на нее утерял. Еще кто-то рассказывал о весьма успешном применении пиксельных шейдеров для ускорения взлома раровских паролей. Короче говоря, выглядит так, что в современном компьютере появилась практически шаровая и очень мощная числодробилка. Собственно весь вопрос в том - как же можно успешно и надежно, а еще переносимо использовать все эти возможности в мирных целях? На IXBT увидел некую фразу о существовании некоего компилятора с языка HLSL - копать надо в эту сторону, или все же в совсем другую?
     
  2. s0larian

    s0larian New Member

    Публикаций:
    0
    Регистрация:
    15 июл 2004
    Сообщения:
    489
    Адрес:
    Крыжёпполь
    Бегом сюда: http://www.nvidia.com/object/cuda_home.html
     
  3. ivan2k2

    ivan2k2 New Member

    Публикаций:
    0
    Регистрация:
    28 янв 2006
    Сообщения:
    95
    ... или сюда http://ati.amd.com/technology/streamcomputing/sdkdwnld.html