размер шага - херня, вот то что у foo/bar есть продолжение - вот это уже "нихуя себе"
это ещё что блять за правило?
Сокращения уровня вложенности.
Позволено не более 2-3 уровней вложености в функции. Остальное признается нечитабельным и сложным для быстрого понимания сути, в следсвии, говнокодомо. Отправлять на рефакторинг и разносы по функциям тд тп
а если там просто несколько if-ов?
Разносить логически по функциям с/без возвращаемого результата.
Такую хуйню придумали придурки, которые не работали с ajax и fetch.
Такую хуйню придумали люди которые знают что такое стиль, и пишут не "на отебись", а работают с одним продуктом в течении годов. Язык и/или фрейморк не влияют на это. Так что пиздуй читай "Чистый код", и про SOLID почитай.
>>Язык и/или фрейморк не влияют на это.
Ну-ну, не влияют. Особенно js с его асинхнронностью.
Ну-ну, не влияют. Особенно js с его асинхнронностью.
сразу видно чувака, который "чистый код" сам не читал. листинги кода там довольно-таки всратые
GRDD — Golden Ratio Driven Development
Ебаначи.
Но вот кстати такая мысль и правда появлялась, но наоборот, чем больше вложений, тем меньше отступ.
Но вот кстати такая мысль и правда появлялась, но наоборот, чем больше вложений, тем меньше отступ.
Или в простонародье "стена текста"
Или оптимизация кода для скорости загрузки веб страницы.
Слышал что в гугле применяется, после написания кода прогоняется скриптом, удаляющим все лишние символы и комменты для оптимизации.
На 2 сотнях кода неощутимо, а при несколько тысяч строк какие то доли секунды можно сэкнономить.
Слышал что в гугле применяется, после написания кода прогоняется скриптом, удаляющим все лишние символы и комменты для оптимизации.
На 2 сотнях кода неощутимо, а при несколько тысяч строк какие то доли секунды можно сэкнономить.
или "как изобрести велосипед, если у тебя нет gzip".
При включенном сжатии запросов такое удаление может не только не ускорить загрузку, а замедлить ее. Есть небольшой видос от Гугла, почему так происходит
При включенном сжатии запросов такое удаление может не только не ускорить загрузку, а замедлить ее. Есть небольшой видос от Гугла, почему так происходит
Посмотрел 2 раза, и если я правильно полял, то минифайзер просто удаляет пробелы и делает размер файлов по факту меньше, но если потом данный файл прогнать через gzip, из-за меньшего количества повторений компрессия работает хуже, верно?
или стоит посмотреть ещё раз?)
лет 10 назад в универе проходили алгоритмы сжатия, но не тестировали данный кейс.
Единтсвенное что помню. как было сказано в видео, что на малых объемах файла, словарь занимеет больше места, чем сам файл.
или стоит посмотреть ещё раз?)
лет 10 назад в универе проходили алгоритмы сжатия, но не тестировали данный кейс.
Единтсвенное что помню. как было сказано в видео, что на малых объемах файла, словарь занимеет больше места, чем сам файл.
Все правильно. И да, на малых размерах сжатие может вредить. Но это будет, соответственно, малый вред.
Одно но, современные минифайзеры офигенны и делают намного больше полезных вещей, чем удаление пробелов. Не причин не использовать их
Одно но, современные минифайзеры офигенны и делают намного больше полезных вещей, чем удаление пробелов. Не причин не использовать их
В комментах реактора частный случай такого
А по-хорошему должна была появиться мысль "чем больше вложений, тем сильнее надо делать рефакторинг"
С одной стороны - лютый пиздец, с другой - нехуй вложения плодить. Пидоры, я в замешательстве.
Вообще-то это отличное решение, если коллеги начинают делать много вложений, а эйчары почему-то не разрешают тебе пиздить их.
Коллбэээки!
А вот и Валдо.
полюбому какой-нить типичный комментатор с хабра с топовым рейтингом
звучит как какое то заклинание, что будет в итоге?
Это не повышает обьем файла на 1 байт за каждый пробел?
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!