Skip to main content

Fitness inspektor: I'M FIT Fitness, Fénix

Během Vánočních svátků jsem vyrazil navštívit jedno z papírově nejmodernějších fitek, které nabízí multisport. I'M FIT Wellness and Fitness v Galerii Fénix v Praze.

Vyrazili bychom tam už dříve, bohužel na multisport kartu je vstup možný pouze 7:00 - 17:00, takže během pracovního dne to skoro nejde. Parkovat lze v obchodním centru zdarma. Na recepci vznikla první komplikace - k uzamčení šatny potřebujete vlastní zámek. Naneštěstí všechny erární byly půjčené, nicméně po pár minutách se problém vyřešil, protože ho někdo z klientů vrátil. Za týden, při druhé návštěvě, však už chtěli za půjčení zámku 30 kč.

Zázemí je výborné. První co jsem viděl v Praze, kde mají ve sprchách sprcháč a další spotřební věci for free. Zklamáním je vlastní posilovna. Z webu lze vyčíst, že zařízení disponuje krom ní i cardio, cyclingem, wellness, bazén, sauna. Jelikož je v I'M FITu tolik věcí, na posilku nezbylo až tolik prostoru. Jednoručky, patnáct možná dvacet moderních leč na sobě namačkaných strojů, hrazda. Na druhé straně v cardiozóně je pár běhátek plus veslovací trenažer. To je vše. Samozřejmě, jak píšu výše, je možné zajít na spinning, do sauny popř. na bosu trénink do menší tělocvičny, kam tu neděli šla většina zákazníků.

Co se mi líbilo bylo celkem civilizované prostředí, normální lidé. Na recepci jsem se dozvěděl, že denně chodí na multisport kartu 120 lidí. Když k tomu přičteme regulérní permanentkáře, nechtěl bych tam chodit v týdnu od šesti, asi by tam nebylo vůbec k hnutí.

Z posilky jsem odcházel se smíšenými dojmy. Celkově pěkné, kultivované, ale malé. Bohužel jsem nebyl ve welness části, ale možná že koncept celého zařízení není v posilce, ale právě ve welness. Příště uvidíme a možná kvůli tomu zbytku zvednu známku, protože zatím průměr - trojka.

Comments

Popular posts from this blog

Performance Battle of NoSQL blob storages #1: Cassandra

Preface We spend last five years on HP Service Virtualization using MsSQL database . Non-clustered server. Our app utilizes this system for all kinds of persistence. No polyglot so far. As we tuned the performance of the response time - we started at 700ms/call and we achieved couple milliseconds per call at the end when DB involved - we had to learn a lot of stuff. Transactions, lock escalation , isolation levels , clustered and non clustered indexes, buffered reading, index structure and it's persistence, GUID ids in clustered indexes , bulk importing , omit slow joins, sparse indexes, and so on. We also rewrite part of NHibernate to support multiple tables for one entity type which allows use scaling up without lock escalation. It was good time. The end also showed us that famous Oracle has half of our favorite features once we decided to support this database. Well, as I'm thinking about all issues which we encountered during the development, unpredictive behavio

NHibernate performance issues #3: slow inserts (stateless session)

The whole series of NHibernate performance issues isn't about simple use-cases. If you develop small app, such as simple website, you don't need to care about performance. But if you design and develop huge application and once you have decided to use NHibernate you'll solve various sort of issue. For today the use-case is obvious: how to insert many entities into the database as fast as possible? Why I'm taking about previous stuff? The are a lot of articles how the original NHibernate's purpose isn't to support batch operations , like inserts. Once you have decided to NHibernate, you have to solve this issue. Slow insertion The basic way how to insert mapped entity into database is: SessionFactory.GetCurrentSession().Save(object); But what happen when I try to insert many entities? Lets say, I want to persist 1000 libraries each library has 100 books = 100k of books each book has 5 rentals - there are 500k of rentals  It's really slow! The inser

Jenkins + git revision in all build names

Jenkins by default assigns version of a build using local counter within each type of a build. An example is better. When you look at this overview, you definitely do not know which code revision was used in Compile build and which in Integration Tests . I've followed nice article regarding real CI pipeline using jenkin s. It uses Build Name Setter Plugin. Unfortunately this article uses SVN revision number. So I said I'll just use git revision as git is my source control. But it's not so easy as how it could seem for first look. My Jenkins setup comprised of first compile build step which clones git server and performs an compilation. Second build steps clones the repository from first step and executes integration tests . The problem here is that the second step does not know which git revision compile step cloned. Here is list of steps how to do that. 1. You obviously need Git Plugin , Build Name Setter Plugin and Parameterized Trigger Plugin 2. Compile