Miłos, Piotr

34 publications

ICLRW 2025 Contrastive Representations for Combinatorial Reasoning Alicja Ziarko, Michał Bortkiewicz, Michał Zawalski, Benjamin Eysenbach, Piotr Miłoś
NeurIPS 2025 Contrastive Representations for Temporal Reasoning Alicja Ziarko, Michał Bortkiewicz, Michał Zawalski, Benjamin Eysenbach, Piotr Miłoś
ICML 2025 Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient Jan Ludziejewski, Maciej Pióro, Jakub Krajewski, Maciej Stefaniak, Michał Krutul, Jan Małaśnicki, Marek Cygan, Piotr Sankowski, Kamil Adamczewski, Piotr Miłoś, Sebastian Jaszczur
ICLRW 2025 Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient Jan Ludziejewski, Maciej Pióro, Jakub Krajewski, Michał Krutul, Jan Małaśnicki, Maciej Stefaniak, Piotr Sankowski, Marek Cygan, Kamil Adamczewski, Piotr Miłoś, Sebastian Jaszczur
ICLRW 2025 Lightweight Latent Verifiers for Efficient Meta-Generation Strategies Bartosz Piotrowski, Witold Drzewakowski, Konrad Staniszewski, Piotr Miłoś
ICML 2025 Since Faithfulness Fails: The Performance Limits of Neural Causal Discovery Mateusz Olko, Mateusz Gajewski, Joanna Wojciechowska, Mikołaj Morzy, Piotr Sankowski, Piotr Miłoś
NeurIPS 2024 Bigger, Regularized, Optimistic: Scaling for Compute and Sample Efficient Continuous Control Michal Nauman, Mateusz Ostaszewski, Krzysztof Jankowski, Piotr Miłoś, Marek Cygan
ICMLW 2024 Bigger, Regularized, Optimistic: Scaling for Compute and Sample-Efficient Continuous Control Michal Nauman, Mateusz Ostaszewski, Krzysztof Jankowski, Piotr Miłoś, Marek Cygan
ICML 2024 Fine-Tuning Reinforcement Learning Models Is Secretly a Forgetting Mitigation Problem Maciej Wolczyk, Bartłomiej Cupiał, Mateusz Ostaszewski, Michał Bortkiewicz, Michał Zając, Razvan Pascanu, Łukasz Kuciński, Piotr Miłoś
ICLR 2024 Magnushammer: A Transformer-Based Approach to Premise Selection Maciej Mikuła, Szymon Tworkowski, Szymon Antoniak, Bartosz Piotrowski, Albert Q. Jiang, Jin Peng Zhou, Christian Szegedy, Łukasz Kuciński, Piotr Miłoś, Yuhuai Wu
ICML 2024 Overestimation, Overfitting, and Plasticity in Actor-Critic: The Bitter Lesson of Reinforcement Learning Michal Nauman, Michał Bortkiewicz, Piotr Miłoś, Tomasz Trzcinski, Mateusz Ostaszewski, Marek Cygan
NeurIPS 2024 Repurposing Language Models into Embedding Models: Finding the Compute-Optimal Recipe Albert Q. Jiang, Alicja Ziarko, Bartosz Piotrowski, Wenda Li, Mateja Jamnik, Piotr Miłoś
NeurIPSW 2024 Since Faithfulness Fails: The Performance Limits of Neural Causal Discovery Mateusz Olko, Mateusz Gajewski, Joanna Wojciechowska, Łukasz Kuciński, Mikołaj Morzy, Piotr Sankowski, Piotr Miłoś
ICLR 2023 Fast and Precise: Adjusting Planning Horizon with Adaptive Subgoal Search Michał Zawalski, Michał Tyrolski, Konrad Czechowski, Tomasz Odrzygóźdź, Damian Stachura, Piotr Piękos, Yuhuai Wu, Łukasz Kuciński, Piotr Miłoś
NeurIPS 2023 Focused Transformer: Contrastive Training for Context Scaling Szymon Tworkowski, Konrad Staniszewski, Mikołaj Pacek, Yuhuai Wu, Henryk Michalewski, Piotr Miłoś
NeurIPSW 2023 Magnushammer: A Transformer-Based Approach to Premise Selection Maciej Mikuła, Szymon Antoniak, Szymon Tworkowski, Bartosz Piotrowski, Albert Jiang, Jin Peng Zhou, Christian Szegedy, Łukasz Kuciński, Piotr Miłoś, Yuhuai Wu
ICLRW 2023 On the Role of Forgetting in Fine-Tuning Reinforcement Learning Models Maciej Wolczyk, Bartłomiej Cupiał, Michał Zając, Razvan Pascanu, Łukasz Kuciński, Piotr Miłoś
CoLLAs 2023 The Effectiveness of World Models for Continual Reinforcement Learning Samuel Kessler, Mateusz Ostaszewski, MichałPaweł Bortkiewicz, Mateusz Żarski, Maciej Wolczyk, Jack Parker-Holder, Stephen J. Roberts, Piotr Miłoś
NeurIPS 2023 The Tunnel Effect: Building Data Representations in Deep Neural Networks Wojciech Masarczyk, Mateusz Ostaszewski, Ehsan Imani, Razvan Pascanu, Piotr Miłoś, Tomasz Trzcinski
NeurIPS 2023 Trust Your $\nabla$: Gradient-Based Intervention Targeting for Causal Discovery Mateusz Olko, Michał Zając, Aleksandra Nowak, Nino Scherrer, Yashas Annadani, Stefan Bauer, Łukasz Kuciński, Piotr Miłoś
NeurIPS 2022 Disentangling Transfer in Continual Reinforcement Learning Maciej Wolczyk, Michał Zając, Razvan Pascanu, Łukasz Kuciński, Piotr Miłoś
NeurIPSW 2022 Fast and Precise: Adjusting Planning Horizon with Adaptive Subgoal Search Michał Zawalski, Michał Tyrolski, Konrad Czechowski, Damian Stachura, Piotr Piękos, Tomasz Odrzygóźdź, Yuhuai Wu, Łukasz Kuciński, Piotr Miłoś
NeurIPSW 2022 The Surprising Effectiveness of Latent World Models for Continual Reinforcement Learning Samuel Kessler, Piotr Miłoś, Jack Parker-Holder, Stephen J. Roberts
NeurIPS 2022 Thor: Wielding Hammers to Integrate Language Models and Automated Theorem Provers Albert Qiaochu Jiang, Wenda Li, Szymon Tworkowski, Konrad Czechowski, Tomasz Odrzygóźdź, Piotr Miłoś, Yuhuai Wu, Mateja Jamnik
NeurIPSW 2022 Trust Your $\nabla$: Gradient-Based Intervention Targeting for Causal Discovery Mateusz Olko, Michał Zając, Aleksandra Nowak, Nino Scherrer, Yashas Annadani, Stefan Bauer, Łukasz Kuciński, Piotr Miłoś
NeurIPS 2021 Catalytic Role of Noise and Necessity of Inductive Biases in the Emergence of Compositional Communication Łukasz Kuciński, Tomasz Korbak, Paweł Kołodziej, Piotr Miłoś
NeurIPS 2021 Continual World: A Robotic Benchmark for Continual Reinforcement Learning Maciej Wołczyk, Michał Zając, Razvan Pascanu, Łukasz Kuciński, Piotr Miłoś
NeurIPSW 2021 Continuous Control with Ensemble Deep Deterministic Policy Gradients Piotr Januszewski, Mateusz Olko, Michał Królikowski, Jakub Swiatkowski, Marcin Andrychowicz, Łukasz Kuciński, Piotr Miłoś
NeurIPSW 2021 Off-Policy Correction for Multi-Agent Reinforcement Learning Michał Zawalski, Błażej Osiński, Henryk Michalewski, Piotr Miłoś
NeurIPS 2021 Subgoal Search for Complex Reasoning Tasks Konrad Czechowski, Tomasz Odrzygóźdź, Marek Zbysiński, Michał Zawalski, Krzysztof Olejnik, Yuhuai Wu, Łukasz Kuciński, Piotr Miłoś
ICMLW 2020 Emergence of Compositional Language in Communication Through Noisy Channel Łukasz Kuciński, Paweł Kołodziej, Piotr Miłoś
ICLR 2020 Model Based Reinforcement Learning for Atari Łukasz Kaiser, Mohammad Babaeizadeh, Piotr Miłos, Błażej Osiński, Roy H Campbell, Konrad Czechowski, Dumitru Erhan, Chelsea Finn, Piotr Kozakowski, Sergey Levine, Afroz Mohiuddin, Ryan Sepassi, George Tucker, Henryk Michalewski
NeurIPSW 2020 Structure and Randomness in Planning and Reinforcement Learning Piotr Kozakowski, Piotr Januszewski, Konrad Czechowski, Łukasz Kuciński, Piotr Miłoś
NeurIPSW 2020 Trust, but Verify: Model-Based Exploration in Sparse Reward Environments Konrad Czechowski, Tomasz Odrzygóźdź, Michał Izworski, Marek Zbysiński, Łukasz Kuciński, Piotr Miłoś