const
nn = 100; // максимальное число элементов
var
a: array[1..nn] of integer;
i, n: integer;
p: real;
begin
write('n = ');
read(n);
writeln('введите элементы массива');
p := 1;
for i := 1 to n do
begin
read(a[i]);
if (i mod 2 = 0) and (a[i] mod 2 <> 0) then
p := p * a[i];
end;
writeln('П = ', p);
end.
У нас имеется страниц - 2. В каждой 32 строки по 64 символа, значит общее количество символов будет 2*32*64 = 4096.
Теперь количество наших символов умножаем на информационный объем за символ, то есть для Unicode это 16 бит за символ.
4096 символов* 16 бит = 65536 бит.
8 бит = 1 байт.
1024 байта = 1 Кбайт
65536 бит / 8 = 8192 байта / 1024 = 8 Кбайт.
Ответ: 3) 8 Кб
Var a:integer;
begin
write('Введите число: ');
readln(a);
if a<0 then write ('-');
while a<>0 do
begin
write (abs (a mod 10));
a:=a div 10
end
end.
Кто такие вопросы кривые дает? Хотя не удивительно почему столько тупых программистов в наше время)
Если тактовую частоту увеличить в два раза то и производительность вырастит в два раза. А разрядность в три раза не увеличить т.к их всего два и они не влияют на производительность процессора.
using System;
using System.Linq;
class Program {
static void Main() {
int n = Convert.ToInt32(Console.ReadLine());
int[] a = new int[n];
Random r = new Random();
for (int i = 0; i < a.Length; i++) {
a[i] = r.Next(-100, 101);
Console.Write(a[i] + " ");
}
Console.WriteLine();
int min = a.Min();
int im = 0, k = 0;
while (a[im] != min) {
if (a[im] < 0 && a[im] !=min) k++;
im++;
}
int nb = n - k;
int[] b = new int[nb];
int j = 0;
for (int i = 0; i < n; i++ ) {
if (i < im && a[i] < 0);
else {
b[j] = a[i];
j++;
}
}
foreach (int i in b)
Console.Write (i + " ");
}
}