Доброе утро всем. Возникли вопросы после прочтения следующего отрывка(читаю Таненбаума "Архитектура компьютера"): Так вот, вопрос возник такой: действительно ли так эффективен смешанный подход, описанный Таненбаумом? И еще: многие ли из вас используют такой подход, насколько часто?
Нужно учесть, что только небольшое количество типичных программ имеет смысл оптимизировать вообще. Во-вторых, Таненбаум, наверное, написал это давно, когда компиляторы ЯВУ практически не умели оптимизировать код. Время разработки в человеко-годах тоже можно "оптимизировать", если воспользоваться хотя бы ООП-ом. Короче, моё личное мнение: Таненбаум, конечно, прав, но не всё так просто, как он пишет. Ну, я частенько занимаюсь поиском тех самых 10% тормозного кода в профайлере для дальнейшей оптимизации.
Ещё нюанс - во времена DOS код на АСМе действительно был преимущественно таким как пишет Таненбаум, но сейчас, когда есть Win32 API, прога на "чистом" АСМе частенько выглядит как ЯВУ - сплошные инвоки Си подобных функций - тоже "смешанный подход", не хватает только автоопределения текстовых строк, компилятора формул, и прочих "мелочей", но и тут многие делают себе соответствующие макросы а-ля HLL