Нашли или выдавили из себя код, который нельзя назвать нормальным,
на который без улыбки не взглянешь?
Не торопитесь его удалять или рефакторить, — запостите его на
говнокод.ру, посмеёмся вместе!
<a href="/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="8feee3eaf7cfcedccba2dfcc">[email protected]</a>:~/TypeScriptCompiler/3rdParty/llvm-wasm/debug/bin$ node mlir-translate.js --help
OVERVIEW: MLIR Translation Testing Tool
USAGE: mlir-translate.js [options] <input file>
OPTIONS:
Color Options:
--color - Use colors in output (default=autodetect)
General options:
--dot-cfg-mssa=<file name for generated dot file> - file name for generated dot file
--mlir-disable-threading - Disabling multi-threading within MLIR
--mlir-elide-elementsattrs-if-larger=<uint> - Elide ElementsAttrs with "..." that have more elements than the given upper limit
--mlir-pretty-debuginfo - Print pretty debug info in MLIR output
--mlir-print-debuginfo - Print debug info in MLIR output
--mlir-print-elementsattrs-with-hex-if-larger=<long> - Print DenseElementsAttrs with a hex string that have more elements than the given upper limit (use -1 to disable)
--mlir-print-op-on-diagnostic - When a diagnostic is emitted on an operation, also print the operation as an attached note
--mlir-print-stacktrace-on-diagnostic - When a diagnostic is emitted, also print the stack trace as an attached note
-o=<filename> - Output filename
--split-input-file - Split the input file into pieces and process each chunk independently
Translation to perform
--deserialize-spirv - deserialize-spirv
--import-llvm - import-llvm
--mlir-to-llvmir - mlir-to-llvmir
--serialize-spirv - serialize-spirv
--test-spirv-roundtrip - test-spirv-roundtrip
--test-spirv-roundtrip-debug - test-spirv-roundtrip-debug
--verify-diagnostics - Check that emitted diagnostics match expected-* lines on the corresponding line
Generic Options:
--help - Display available options (--help-hidden for more)
--help-list - Display list of available options (--help-list-hidden for more)
--version - Display the version of this program
program exited (with status: 0), but EXIT_RUNTIME is not set, so halting execution but not exiting the runtime or preventing further async execution (build with EXIT_RUNTIME=1, if you want a true shutdown)
<a href="/cdn-cgi/l/email-protection" class="__cf_email__" data-cfemail="6b0a070e132b2a382f463b28">[email protected]</a>:~/TypeScriptCompiler/3rdParty/llvm-wasm/debug/bin$
Но вы ведь не думаете что я должен предтворствовать вашим капризам. Или я должен делать не как мне хочется, а как хочется каждому? Ну вот смотрите. Судя по тому что вы комментируете, то вы читали пост, хотя он вам уже по обложке не понравился. Это что получается, вы мучались, читали, копили эмоции, чтобы потом вылить все говно что в вас накопилось? Вы говорите об эстетичности, а я говорю о том, что порядочный человек не стал бы писать как троль какую нибудь гадость. Кому то новость может понравиться, но если есть индивидуумы, которые не нравиться информация, то почему бы не заняться спортом, чтобы выплеснуть агресию. нет же, вы диванные комментаторы будете писать что лично вам не понравилось. нафига?
Мне кажется, лучше было бы, если бы пост на 100% был посвящен программе, которую вы пишете, ее описанию и особенностям. А не рассказу о том, как вы устанавливали линукс и какие языки программирования изучали. Говнокод это все же не сборник историй "Жизнь замечательных людей".
The MLIR project is a novel approach to building reusable and extensible compiler infrastructure. MLIR aims to address software fragmentation, improve compilation for heterogeneous hardware, significantly reduce the cost of building domain specific compilers, and aid in connecting existing compilers together.
> MLIR is a powerful representation, but it also has non-goals. We do not try to support low level machine code generation algorithms (like register allocation and instruction scheduling). They are a better fit for lower level optimizers (such as LLVM).
> блядь, это какой-то IR, но с современной высокоуровневой питушней со всякими примитивами для графов и пр?
Типа да. Там пишут что через него всякие нейронки можно оптимизировать, всякую там dataflow хуйню, трансформация графов зависимости хуйни от хуйни во времени, чтобы это эффективно разбросать на кучу потоков чтобы оно быстро вычислялось
> The ability to represent dataflow graphs (such as in TensorFlow), including dynamic shapes, the user-extensible op ecosystem, TensorFlow variables, etc.
> Optimizations and transformations typically done on such graphs (e.g. in Grappler).
> Ability to host high-performance-computing-style loop optimizations across kernels (fusion, loop interchange, tiling, etc.), and to transform memory layouts of data.
> Code generation “lowering” transformations such as DMA insertion, explicit cache management, memory tiling, and vectorization for 1D and 2D register architectures.
> Ability to represent target-specific operations, e.g. accelerator-specific high-level operations.
> Quantization and other graph transformations done on a Deep-Learning graph.
> Polyhedral primitives.
> Hardware Synthesis Tools / HLS.
ASD_77 # 0
j123123 # 0 ⇈
JloJle4Ka # 0 ⇈
Stallman # 0 ⇈
guest # 0 ⇈
JloJle4Ka # 0
ASD_77 # 0 ⇈
ASD_77 # 0 ⇈
bormand # 0 ⇈
Странно что не аппрувнули более-менее техническую тему, когда рядом всякие дотеры-онанисты пишут о своей нелёгкой борьбе и их лайкают...
JloJle4Ka # 0 ⇈
DelphiGovno # 0
ASD_77 # 0 ⇈
DelphiGovno # 0 ⇈
ASD_77 # 0 ⇈
DelphiGovno # 0 ⇈
Кстати, LIRA - балдёжное название.
ASD_77 # 0 ⇈
bormand # 0 ⇈
ASD_77 # 0 ⇈
j123123 # 0 ⇈
https://mlir.llvm.org/
> MLIR is a powerful representation, but it also has non-goals. We do not try to support low level machine code generation algorithms (like register allocation and instruction scheduling). They are a better fit for lower level optimizers (such as LLVM).
guest # 0 ⇈
Этакий SSE для виртуальных процов
j123123 # 0 ⇈
Типа да. Там пишут что через него всякие нейронки можно оптимизировать, всякую там dataflow хуйню, трансформация графов зависимости хуйни от хуйни во времени, чтобы это эффективно разбросать на кучу потоков чтобы оно быстро вычислялось
> The ability to represent dataflow graphs (such as in TensorFlow), including dynamic shapes, the user-extensible op ecosystem, TensorFlow variables, etc.
> Optimizations and transformations typically done on such graphs (e.g. in Grappler).
> Ability to host high-performance-computing-style loop optimizations across kernels (fusion, loop interchange, tiling, etc.), and to transform memory layouts of data.
> Code generation “lowering” transformations such as DMA insertion, explicit cache management, memory tiling, and vectorization for 1D and 2D register architectures.
> Ability to represent target-specific operations, e.g. accelerator-specific high-level operations.
> Quantization and other graph transformations done on a Deep-Learning graph.
> Polyhedral primitives.
> Hardware Synthesis Tools / HLS.