Sobre el resto de problemas, habrá que ver si los van solucionando con el paso del tiempo. Es posible que el problema sea que la web se haya lanzado antes de tiempo, y no hayan podido pulirla bien. Hay cosas que no son cuestión de dinero o de capacidad técnica, sino de planificación.
#9 ¿Y en qué te basas tú para decir que no lo ha sido? Estás cuestionando la labor de profesionales que no tienen nada que ver con los chanchullos políticos, que se ganan la vida administrando sistemas informáticos, y si dicen que ha sido un ataque tendrán sus motivos.
Con tanto criticar a políticos acabamos al final apuntando a donde no debemos.
#44 Si lo dices por lo que va rulando por ahí, que sale un texto chorra en la web cambiando un parámetro de la url, eso no es XSS. Es cambiar un parámetro, punto. El XSS tampoco es que sea muy sofisticado, pero esto es simplemente una niñería.
Y lo del robots.txt, no es raro que una web bloquee la indexación cuando espera recibir un tráfico elevado (por ejemplo, cuando se presenta a los medios, como es el caso) para no saturar más el servidor. Probablemente lo activarán en un día o dos.
Interesantes los ejemplos de la web encargada por el Gobierno de UK que costó 1,7 millones de libras, y otra encargada por el de EEUU que costó 18 millones de dólares.